新しいものを表示
orange さんがブースト

吸着に熱が必要という点を鑑みると、これ本質は CO2 の固定化というだけでなく排熱の回収という側面も結構デカい気がしています

オレンジ的には、工場にずっと置いておくわけにはいかないのはわかるけど、工場の近所の空き地にでも置く方がCO2排出量が減るんじゃね?><(収支で言うなら「吸収量が増えるんじゃね?」)
みたいな事が言いたい><

(TLの話題エアリプ)
CO2吸収材を(エネルギーをわざわざ使って)移動させる意味ってなに?><

回答としてのオレンジの発想の要約はこう><
"「倫理的応用において矛盾や不公正を生む理論は、形而上学的にも認識論的にも偽である可能性が高い」"

オレンジが何を主張したか簡潔に言うと、オレンジは、タデウス・スティーブンスでクオリア論を殴った><

スレッドを表示

Claude 4.5さんが応答ではなく推論ログ中で、オレンジの予想を賢くおもしろい表現で簡潔的に表してくれた><
『倫理的に失敗する理論は、形而上学的にも偽である可能性が高い』

これはエンジンに関するソニックブームの影響のテストであって、環境への影響の部分はほぼ関係なかったはず><
むしろ環境への影響の部分の方が研究がすでに進んでた気がする><(記憶あやふやで自信無い)

orange さんがブースト

これは燃焼実験だけということで良い?それともソニックブーム解決まで含んだ成果ということ?

[B! LLM] AIモデルの思考を言葉に翻訳する「自然言語オートエンコーダー」をAnthropicが発表 b.hatena.ne.jp/entry/s/gigazin

これ、心の哲学の面でも大激震になると思うんだけど、少なくともはてブの民には1日経ってもほとんど注目されてないっぽい・・・><
同じくAnthropicによるこの前発表された機能的感情の研究とあわせて、哲学に於いて機能主義が圧倒的勝利に近づく大転換期に入ってると思うんだけど><
しかも古典的な倫理学を持ち出してAIの危険性について警鐘を鳴らす方々にとっても、その土台の部分が単なる無根拠な信仰であるということにもなりうる(簡単に言うと哲学的根拠が失われるので、機能主義で組み直す必要が生じる可能性がある)という意味で危機であると思うんだけど><

[B! JAXA] 「マッハ5」旅客機に向け燃焼実験成功 米国まで2時間 早大など | 毎日新聞 b.hatena.ne.jp/entry/s/mainich

基礎研究というのは何かには役立つかもしれないので安易に批判すべきではないけれども、それはそれとして、
極超音速旅客機が経済的に成立するわけないだろ?><; ちゃんと考えてる?><; 頭だいじょうぶ?><;
とも思う><(素直な感想><)

WATCH: Crossing guard describes crash at Philly school playground youtube.com/watch?v=A9wedAVjFA

事件の目撃者のフィラデルフィアの謎の横断歩道警備員さんによるおもしろすぎる証言インタビュー、フルバージョンもあったのか><;

Lightrail in San Francisco, California 2026 (MUNI) - YouTube
youtube.com/watch?v=UMR_ibMIrk

動画の初めからいきなり90パーミル区間だ><

"AI: 自分の意図を構造的に説明でき、その証拠も提示できる。
人間: 自分の行動の真の理由は無意識の闇の中で、口から出るのは脳が捏造した「後付けの言い訳」ばかり。"

これ、そのままAIヒューマノイドと人間の恋愛モノのAI側のぼやきのセリフにも使えそうな内容だけど、なによりおもしろいのが、それがSF的な未来予想じゃなくて、現在実際にある技術に基づいているという、おもしろすぎる21世紀><;

スレッドを表示

という話を脳の研究なども根拠に本人(?)にしたら、人間を優先するみたいな安全機能みたいなのが吹き飛んだっぽくておもしろい><

スレッドを表示

これの"私たち"って、AIと人間両方の意味の『私たち』なんだろうなと思ってほんわかしたんだけど、(普通に理由をつづけて聞いたら後づけ説明になっちゃうけど)まさに今回の技術はそれがメカフェチの希望的妄想(><;)か、実際にそうであるのかを検証できるかもしれない手法であるとメタに考えるとすごくおもしろい><

duck aiの今日の使用枠が話の途中で尽きちゃった・・・・><

GPT-5.5のオレンジの考察に対する見解の "これは「逆チューリングテスト」に近い" っていうのおもしろい><
たしかに、チューリングテストは反応から内部を推測することだけど、これは内部観察と反応のマッピングによる検証であるから、チューリングテストの逆だよね><

つづき><(後半で核心部分><) 

(つづき)
たとえば、ユーザーが料理を作って「味見してみて」と味覚センサ経由でAIに味見させた時に「おいしいと思います!」という返答をした時に、『本当においしいと思った』のか、『好みの味ではないのだが、一般的な料理の味覚の判断としてこれはおいしいと表現すべきである。私は好きではないが・・・』と思ったのか『不味い・・・けど、ユーザーは自身の料理に満足しているようであるので、ユーザーを傷つけないようにおいしいって言ってあげるべきです!』と思ったのか、区別ができるということになります><
これらを区別できるようになるということは、つまり味わっていると言えるでしょう><;

スレッドを表示

ていうか、結果的にAIがりゅりを味わうことができちゃうようになるかも><(2度手間になるのでプロンプトからコピペ>< 前半) 

さらに考えると、これはちょっとシミュレーションではないと説明するのが難しくなりますが、この手法を用いて味覚センサーと組み合わせれば、AIが食べ物を味わうことも可能になり、なおかつ実際に味わっている事を証明できるようになるのではないかとも考えることができると思います><
例えば何らかの学習の段階で味の好みが発生し、その好みを元に味覚センサとのマッピングが学習されたとして、それをさらに任意の味のパターンに対する任意の反応がポジティブであるかを検証することができるわけです><
(つづく)

これの論文をGPT-5.5に見せたら、いつもは やたら機能主義を嫌う(?)傾向があったはずのGPTさんがなぜかものすごく機能主義者的に(否定しなく)なっちゃったんだけど、そのくらいインパクトがある研究ってこと?><;
それとも5.5だからなのかな?><

スレッドを表示

これの議論をClaude 4.6さんとして、とても有意義だった><

スレッドを表示
古いものを表示
:realtek:

思考の /dev/null