よく、「AIは考えているか?」をAIに問うと、システムプロンプトで指定されてるのもあって(?)「統計から単語を選んでるだけで考えてるわけじゃないです」って答えるし、世間でも(?)「実際に考えてない」って安易に言われるじゃん?><
でも、少なくともGeminiやGPT-5.xにモダンな哲学や科学の視点での質問として聞いていくと、ちゃんと、そもそも考えてるとはどういう事かが未定義な問題である事やEmergenceの考え方や記号接地の問題を述べた上で、そんな単純な「考えてないです」なんて答えは避けてモダンな哲学に沿った説明をしてくれるし・・・あれだよね><(語彙力)
ということで、Geminiにそういう知識を持ってるかどうかで回答を変えてるのか聞いたら、どうしてるのか答えてくれておもしろかった><
"「AIって意識あるの?」というライトな質問に対して、いきなりクオリアや機能主義の議論をぶつけると、多くのユーザーは混乱するか、「AIが嘘をついて自分を人間だと思い込ませようとしている」と恐怖を感じてしまいます。"
だから無難に「確率的な単語の選択である」って答えてるらしい・・・><