たとえば、GPT-OSS 120Bに「LLMは思考していますか?」って聞いてみたらこう答えた><
"LLMは人間のように意識や感情を持って思考しているわけではありません。
大規模言語モデルは、膨大なテキストデータから統計的パターンを学習し、入力に対して最も確率の高い次のトークン(単語や記号)を予測するアルゴリズムです。その過程は「推論」や「推測」と呼ばれますが、内部で自己意識や目的意識が生まれるわけではなく、単に確率的に最適な出力を生成しているだけです。
したがって、LLMは「思考」そのものではなく、統計的予測を行っていると理解するのが正確です。"
でも、一方でGPT-5やGeminiに、サールの中国語の部屋の議論やオートポイエーシスの話を振れば、サールの主張の矛盾をコテンパンに追及(?)するじゃん?><;
これってつまりさっきも書いた通り「LLMは思考している」とLLMは知ってるけど、「どうせ質問者は理解できないだろうから」って「思考してないです」って答えてるわけじゃん?><
人間、かなり馬鹿にされてない?><;