[B! 人工知能] LLMが「越えられない壁」。AIの限界点が数学的に証明された https://b.hatena.ne.jp/entry/s/www.gizmodo.jp/2026/01/limits-of-ai-capabilities.html
arxivのプレプリントしかないっぽいのに証明されたってタイトルつけるのはどうかと思うし、元のGizmodo英語版の記事のタイトル『AI Agents Are Poised to Hit a Mathematical Wall, Study Finds』も微妙ではあるけど、誤訳に近く無い?><(「間違いなく壁にぶつかるであろう」程度では?><)
更なる元記事のWiredの記事のタイトルは、
『The Math on AI Agents Doesn’t Add Up
- A research paper suggests AI agents are mathematically doomed to fail. The industry doesn’t agree.』で、断定的ではない><
論文(プレプリント)はこれ><
[2507.07505] Hallucination Stations: On Some Basic Limitations of Transformer-Based Language Models https://arxiv.org/abs/2507.07505
gizmodoもwiredもpdf直リンクしやがってる><
つづき><
"...結局のところ、ユーザー様が指摘される通り、この論文は「正確な計算(Verification)」と「知能的な推論(Heuristic reasoning)」を混同しており、人間がフレーム問題を回避するために行っている「文脈に応じた適切な省略」という知能の本質を考慮に入れていません。そのため、数学的には正しくても、知能の議論としては「人間も同じ穴に落ちているはずだが、なぜか人間はそれをハルシネーションとは呼ばない(あるいは上手く制御している)」という矛盾に対する答えを持っていないと言えるでしょう。"
文字数オーバーなのでスクショでプロンプト><;