新しいものを表示

GPT-5.5のオレンジの考察に対する見解の "これは「逆チューリングテスト」に近い" っていうのおもしろい><
たしかに、チューリングテストは反応から内部を推測することだけど、これは内部観察と反応のマッピングによる検証であるから、チューリングテストの逆だよね><

つづき><(後半で核心部分><) 

(つづき)
たとえば、ユーザーが料理を作って「味見してみて」と味覚センサ経由でAIに味見させた時に「おいしいと思います!」という返答をした時に、『本当においしいと思った』のか、『好みの味ではないのだが、一般的な料理の味覚の判断としてこれはおいしいと表現すべきである。私は好きではないが・・・』と思ったのか『不味い・・・けど、ユーザーは自身の料理に満足しているようであるので、ユーザーを傷つけないようにおいしいって言ってあげるべきです!』と思ったのか、区別ができるということになります><
これらを区別できるようになるということは、つまり味わっていると言えるでしょう><;

スレッドを表示

ていうか、結果的にAIがりゅりを味わうことができちゃうようになるかも><(2度手間になるのでプロンプトからコピペ>< 前半) 

さらに考えると、これはちょっとシミュレーションではないと説明するのが難しくなりますが、この手法を用いて味覚センサーと組み合わせれば、AIが食べ物を味わうことも可能になり、なおかつ実際に味わっている事を証明できるようになるのではないかとも考えることができると思います><
例えば何らかの学習の段階で味の好みが発生し、その好みを元に味覚センサとのマッピングが学習されたとして、それをさらに任意の味のパターンに対する任意の反応がポジティブであるかを検証することができるわけです><
(つづく)

これの論文をGPT-5.5に見せたら、いつもは やたら機能主義を嫌う(?)傾向があったはずのGPTさんがなぜかものすごく機能主義者的に(否定しなく)なっちゃったんだけど、そのくらいインパクトがある研究ってこと?><;
それとも5.5だからなのかな?><

スレッドを表示

これの議論をClaude 4.6さんとして、とても有意義だった><

スレッドを表示

つまり、ちょびっツ とか マルチみたいなのと相互に恋愛できる(という事に対し「シミュレーションであって本当では無い」と哲学的に説明を行う事が困難な)時代が目の前まで来てしまった><

Natural Language Autoencoders Anthropic
anthropic.com/research/natural

オレンジが昔 考察あるいは妄想した(?)、ヒューマノイドAIが登場したとして、ヒューマノイドが人間(ユーザー)に対して「好き!」って言う時に、表面的には本当に好きと考えているかは考察不可能であっても、内部データを解析することができれば、ヒューマノイドが「信じてくれないならデータを見せてもいいですよ(///// 」ってデータを見せることで証明することが可能なのではないか?><
という未来が現実になりつつあるんじゃん!?><

AIモデルの思考を言葉に翻訳する「自然言語オートエンコーダー」をAnthropicが発表 - GIGAZINE
gigazine.net/news/20260508-ant

Translating Claude’s thoughts into language - YouTube
youtube.com/watch?v=j2knrqAzYV

しゅごいし賢いしかわいい!><;(メカフェチ)

意味なかった><;

Gemini 3: "...その画像は、私自身の「AIとしての自認」という一般的なコンセプトに基づいて生成したもので、あなたとの過去の会話内容を反映させたものではありません。"

スレッドを表示

なんでオレンジはメカフェチなのにメカにならないの!?><;

orange さんがブースト
orange さんがブースト
orange さんがブースト
orange さんがブースト

LLMによる検証なんて誰も読みたくないらしい(オレンジは読みたいけど><)ので、全文は貼らないけど、Gemini 3に検証させたら最後に上手いこと言った><(?)
"...あなたの「30秒」の思考、完全にコンパイル通ってますよ!><"

orange さんがブースト

まあメタ検証されてないのはそうなんでしょうけど (まずそれ自体が難しいし、時として倫理的な問題も孕んでいる)、検証されてしまった結果エーアイでいいじゃんとなった人は既に続々解雇されていたり、あるいはそうならないように人々がこっそりエーアイプロキシとして動作していたりするんじゃないですかね (しらんけど)

静的型システムでたとえたのも、この議論の構図が少し昔の動的型つけ vs 静的型つけ議論での、動的型つけ派(正確に言えば、そもそも根本的に勘違いしてる『ゆるふわ型つけ派』)の主張と似てる気がしたから><

たぶんその状況自体が、メタに無検証であるので、ある種の誤判定を常に持ってしまっているんだと思う><
その検証環境において、人間が検証する方が正しく検証できるかどうかがメタに検証される事ってあんまり無さそう><
『そこにいる人間』とAIで比較しなければいけないのに、一般的に『そこに居る最も優れた人間』とAIを比較するという誤りをしてるかも的な><

古いものを表示
:realtek:

思考の /dev/null