https://mstdn.nere9.help/@orange_in_space/116113384168608520
これについてのオレンジの考えの妥当性をGPT-5に尋ねたら、話がそれてってなぜかオレンジが考えるコクピット設計思想の説明を求められて、そこに対する疑問を解消する激しい議論になり、GPT-5が持った疑問の解消に1時間くらいかかった><
またオレンジが説明する側になってる・・・><
AIに踊らされず自分の思考を取り戻す方法とは? - GIGAZINE https://gigazine.net/news/20260221-ai-cognitive-atrophy-risk/
"...しかし、AIに頼り過ぎると「まず最初に自分で考えてみる」という過程がなくなり、「AIにプロンプトを送り、AIが返した答えを検討する」というやり方にシフトしていってしまうとのこと。..."
これ、元からの姿勢の影響がたぶん大きいよね><
オレンジは何事もまず自分で考えてから正解を見る、素晴らしい本は最初には読まず、まず自分の意見を持ってから、その意見が妥当であるかを確認する手段として読むことにしてる(そうじゃないと本の鵜呑みになる)から、
AIの使い方も基本的には、自分の考えが正しいかを検証する形で使ってるし、プロンプトも「このように考えたのですが、そういった研究はありますか?><」みたいなフォーマットになってる事が多い><
世界と北海道を比較できるらしい
https://x.com/kisho_bousai/status/2025130005986967844?s=20
Laziness Impatience Hubris https://wiki.c2.com/?LazinessImpatienceHubris
どっちかっていうとトイルの削減みたいな文脈という認識
「AIが面倒くさがらずにこれだけ優秀な開発者として認識されてしまうと、「僕はプログラマだから怠惰でいいんだ」とか言っても寒いだけである」世知辛い
---
怠惰がプログラマの美徳でなくなってしまった日
https://kanatoko.wordpress.com/2026/02/16/怠惰がプログラマの美徳でなくなってしまった日/
#bookmarks
つまり簡単に言えば「この人は詳しそうだから聞いてみよう」をLLMが実際にしてる事はそれなりに多いらしい・・・><
オレンジによる解説をLLMが『参考になった』と判断してるかはわかんないけど、参考になったと判断した場合は活かされるっぽい><
これについてGeminiに聞いてみたら、実際に学習データの航空の設計思想に関する最新の内容の多くが737MAXのMCAS問題に結び付いていて、
そしてこういう安全に関する問題は安易に答える事は危険な話題と判断し、質問者が詳しいと認識した場合にはそれに沿って回答する方がよいとする安全策をとり、
その上でユーザーに求めて回答して貰った内容とすでに学習データにある内容との整合性等を判断して、有用であると判断したらRLHF(人間からのフィードバック強化学習)データとして扱うみたいな事をしてる事が多いらしい・・・><