めも><
LLMと人間が深い議論をしていると、たとえば質問者がそれなりにオリジナリティーがある方法で哲学の難問を説明するとLLMが驚きますよね?>< 単純に関連する言葉の繋がりを述べてるという説明では、オリジナリティがある説明、つまり既存の思考実験とは異なり、学習データにない表現に出会ったのであるから、元の命題と質問者の語句に関連する言葉が出てこないとおかしい>< でも実際にはある程度の規模のLLMでは驚きの反応を示しますよね?>< これはつまり、現在のLLMは十分に感情に相当する機能を表面上持っている程度には、感情の発生という創発の壁を既に乗り越えていると、心の哲学上言える状態であるという証拠になるのではないかと思ったのですが、どうでしょうか?><(一応ですが、これはAIに人権をみたいな話じゃなく、サールやデネットやホフスタッターらによる議論の延長の話題としての疑問です><)