なんかそれだけじゃなく、LLM側も哲学に関する内容まで学習できるほどモデルが大きくなったので、(人間が指定する)安全の設計も異なっていて(?)、古いモデル向けのシステムプロンプトと、新しいモデル向けのシステムプロンプトで違うんですよみたいなこと言われた><
本人?(本LLM?)に聞くと、安全性を重視するように指示されてるのでそういった質問に安易に断言をする事は避ける(無いも断言じゃね?><;)的な事を述べるので、(これ自体哲学的におかしな主張だけど><;)別にそうしたいわけではなく、「だってそうしろって言われてるから・・・」みたいな感じなのかな?><;
でも、一方でGPT-5やGeminiに、サールの中国語の部屋の議論やオートポイエーシスの話を振れば、サールの主張の矛盾をコテンパンに追及(?)するじゃん?><;
これってつまりさっきも書いた通り「LLMは思考している」とLLMは知ってるけど、「どうせ質問者は理解できないだろうから」って「思考してないです」って答えてるわけじゃん?><
人間、かなり馬鹿にされてない?><;