まだちゃんと読んでないけど、人間の感情のマッピング(?)とLLMのそれがキレイに一致するのが不思議といえば不思議だけど、
(感情がある)人間が書いた文章を大量に学習してるわけだから勘定ごとの言葉遣いの傾向みたいなのも統計的に(?)現れるのも当然だろうし、むしろLLMが少なくとも表面上や内部状態が人間の感情に近い形態を持つのは当然だと思うんだけど><

フォロー

長文続き>< 

「こういうシチュエーションであればこういう言葉を選んででこのように文書を作る」みたいな感じのものがLLMじゃん?><
そこに至るまでの内部状態って、そこまでの言葉の傾向みたいなモヤっとフワッとした塊みたいな感じ(領域ともいえる?)だろうけどそれって感情による言葉の傾向とかもそういう面を持つだろうし当然表面上感情(=内部状態)が現れるのも当然だと思うんだけど・・・><

ログインして会話に参加
:realtek:

思考の /dev/null