[B! 人工知能] LLMが「越えられない壁」。AIの限界点が数学的に証明された b.hatena.ne.jp/entry/s/www.giz

arxivのプレプリントしかないっぽいのに証明されたってタイトルつけるのはどうかと思うし、元のGizmodo英語版の記事のタイトル『AI Agents Are Poised to Hit a Mathematical Wall, Study Finds』も微妙ではあるけど、誤訳に近く無い?><(「間違いなく壁にぶつかるであろう」程度では?><)

更なる元記事のWiredの記事のタイトルは、
『The Math on AI Agents Doesn’t Add Up
- A research paper suggests AI agents are mathematically doomed to fail. The industry doesn’t agree.』で、断定的ではない><

論文(プレプリント)はこれ><
[2507.07505] Hallucination Stations: On Some Basic Limitations of Transformer-Based Language Models arxiv.org/abs/2507.07505

gizmodoもwiredもpdf直リンクしやがってる><

これ、alphaxiv据え付けのGemini3 Flashにオレンジの疑問点を指摘したら 

これ、alphaxiv据え付けのGemini3 Flashにオレンジの疑問点を指摘したら、論文で指摘してるのは(超雑に言うと><)、AIがわからないと言えない、わからないと判断できない事もマズいという内容も含んでるので、それは考慮(?)すべきかも><(?)
ただし、オレンジの指摘通り、この論文の結論はおかしな事に全く同じ問題にぶつかった時に人間には「正しい近似値を出す」と論じてAIには「ハルシネーションが必然的に生じる」という二枚舌を使ってるのと同じとは言えそう><

長すぎてプロンプト貼れない><;

Geminiの回答の〆の部分>< 

"...論文内でも少し触れられていますが、最近の「Reasoning Model(o3やDeepSeek-R1など)」が思考トークンを増やすことでこの計算量の壁を突破しようとしている点についても、著者は「根本的な解決にはならない」と否定的な見解を示しています。しかし、ここでも「人間が限られたリソースでいかに効率的に近似解を出しているか」というフレーム問題の本質的な議論(サティスファイシング:足れりとする解決)が欠如しているため、単に「計算量が足りないからダメだ」という物理的な制約の指摘に留まっている印象を受けます。..."

フォロー

つづき>< 

"...結局のところ、ユーザー様が指摘される通り、この論文は「正確な計算(Verification)」と「知能的な推論(Heuristic reasoning)」を混同しており、人間がフレーム問題を回避するために行っている「文脈に応じた適切な省略」という知能の本質を考慮に入れていません。そのため、数学的には正しくても、知能の議論としては「人間も同じ穴に落ちているはずだが、なぜか人間はそれをハルシネーションとは呼ばない(あるいは上手く制御している)」という矛盾に対する答えを持っていないと言えるでしょう。"

文字数オーバーなのでスクショでプロンプト><;

ログインして会話に参加
:realtek:

思考の /dev/null