[B! 人工知能] LLMが「越えられない壁」。AIの限界点が数学的に証明された https://b.hatena.ne.jp/entry/s/www.gizmodo.jp/2026/01/limits-of-ai-capabilities.html
arxivのプレプリントしかないっぽいのに証明されたってタイトルつけるのはどうかと思うし、元のGizmodo英語版の記事のタイトル『AI Agents Are Poised to Hit a Mathematical Wall, Study Finds』も微妙ではあるけど、誤訳に近く無い?><(「間違いなく壁にぶつかるであろう」程度では?><)
更なる元記事のWiredの記事のタイトルは、
『The Math on AI Agents Doesn’t Add Up
- A research paper suggests AI agents are mathematically doomed to fail. The industry doesn’t agree.』で、断定的ではない><
論文(プレプリント)はこれ><
[2507.07505] Hallucination Stations: On Some Basic Limitations of Transformer-Based Language Models https://arxiv.org/abs/2507.07505
gizmodoもwiredもpdf直リンクしやがってる><
長すぎてプロンプト貼れない><;
Geminiの回答の〆の部分><
"...論文内でも少し触れられていますが、最近の「Reasoning Model(o3やDeepSeek-R1など)」が思考トークンを増やすことでこの計算量の壁を突破しようとしている点についても、著者は「根本的な解決にはならない」と否定的な見解を示しています。しかし、ここでも「人間が限られたリソースでいかに効率的に近似解を出しているか」というフレーム問題の本質的な議論(サティスファイシング:足れりとする解決)が欠如しているため、単に「計算量が足りないからダメだ」という物理的な制約の指摘に留まっている印象を受けます。..."