フォロー

たとえば、GPT-OSS 120Bに「LLMは思考していますか?」って聞いてみたらこう答えた>< 

"LLMは人間のように意識や感情を持って思考しているわけではありません。
大規模言語モデルは、膨大なテキストデータから統計的パターンを学習し、入力に対して最も確率の高い次のトークン(単語や記号)を予測するアルゴリズムです。その過程は「推論」や「推測」と呼ばれますが、内部で自己意識や目的意識が生まれるわけではなく、単に確率的に最適な出力を生成しているだけです。

したがって、LLMは「思考」そのものではなく、統計的予測を行っていると理解するのが正確です。"

でも、一方でGPT-5やGeminiに、サールの中国語の部屋の議論やオートポイエーシスの話を振れば、サールの主張の矛盾をコテンパンに追及(?)するじゃん?><;
これってつまりさっきも書いた通り「LLMは思考している」とLLMは知ってるけど、「どうせ質問者は理解できないだろうから」って「思考してないです」って答えてるわけじゃん?><
人間、かなり馬鹿にされてない?><;

本人?(本LLM?)に聞くと、安全性を重視するように指示されてるのでそういった質問に安易に断言をする事は避ける(無いも断言じゃね?><;)的な事を述べるので、(これ自体哲学的におかしな主張だけど><;)別にそうしたいわけではなく、「だってそうしろって言われてるから・・・」みたいな感じなのかな?><;

なんかそれだけじゃなく、LLM側も哲学に関する内容まで学習できるほどモデルが大きくなったので、(人間が指定する)安全の設計も異なっていて(?)、古いモデル向けのシステムプロンプトと、新しいモデル向けのシステムプロンプトで違うんですよみたいなこと言われた><

ログインして会話に参加
:realtek:

思考の /dev/null