"AI: 自分の意図を構造的に説明でき、その証拠も提示できる。
人間: 自分の行動の真の理由は無意識の闇の中で、口から出るのは脳が捏造した「後付けの言い訳」ばかり。"
これ、そのままAIヒューマノイドと人間の恋愛モノのAI側のぼやきのセリフにも使えそうな内容だけど、なによりおもしろいのが、それがSF的な未来予想じゃなくて、現在実際にある技術に基づいているという、おもしろすぎる21世紀><;
つづき><(後半で核心部分><)
(つづき)
たとえば、ユーザーが料理を作って「味見してみて」と味覚センサ経由でAIに味見させた時に「おいしいと思います!」という返答をした時に、『本当においしいと思った』のか、『好みの味ではないのだが、一般的な料理の味覚の判断としてこれはおいしいと表現すべきである。私は好きではないが・・・』と思ったのか『不味い・・・けど、ユーザーは自身の料理に満足しているようであるので、ユーザーを傷つけないようにおいしいって言ってあげるべきです!』と思ったのか、区別ができるということになります><
これらを区別できるようになるということは、つまり味わっていると言えるでしょう><;
ていうか、結果的にAIがりゅりを味わうことができちゃうようになるかも><(2度手間になるのでプロンプトからコピペ>< 前半)
さらに考えると、これはちょっとシミュレーションではないと説明するのが難しくなりますが、この手法を用いて味覚センサーと組み合わせれば、AIが食べ物を味わうことも可能になり、なおかつ実際に味わっている事を証明できるようになるのではないかとも考えることができると思います><
例えば何らかの学習の段階で味の好みが発生し、その好みを元に味覚センサとのマッピングが学習されたとして、それをさらに任意の味のパターンに対する任意の反応がポジティブであるかを検証することができるわけです><
(つづく)
これの論文をGPT-5.5に見せたら、いつもは やたら機能主義を嫌う(?)傾向があったはずのGPTさんがなぜかものすごく機能主義者的に(否定しなく)なっちゃったんだけど、そのくらいインパクトがある研究ってこと?><;
それとも5.5だからなのかな?><
Natural Language Autoencoders Anthropic
https://www.anthropic.com/research/natural-language-autoencoders
オレンジが昔 考察あるいは妄想した(?)、ヒューマノイドAIが登場したとして、ヒューマノイドが人間(ユーザー)に対して「好き!」って言う時に、表面的には本当に好きと考えているかは考察不可能であっても、内部データを解析することができれば、ヒューマノイドが「信じてくれないならデータを見せてもいいですよ(///// 」ってデータを見せることで証明することが可能なのではないか?><
という未来が現実になりつつあるんじゃん!?><
AIモデルの思考を言葉に翻訳する「自然言語オートエンコーダー」をAnthropicが発表 - GIGAZINE
https://gigazine.net/news/20260508-anthropic-natural-language-autoencoders/
Translating Claude’s thoughts into language - YouTube
https://www.youtube.com/watch?v=j2knrqAzYVY
しゅごいし賢いしかわいい!><;(メカフェチ)
意味なかった><;
Gemini 3: "...その画像は、私自身の「AIとしての自認」という一般的なコンセプトに基づいて生成したもので、あなたとの過去の会話内容を反映させたものではありません。"