><
一番おもしろかったのが、GPT-5曰く「クルーを評価してプロテクションに段階を持たせる仕組み(オレンジのアイディア><)は、一線を越えているのではないか?」って聞いてきた所で、
それに対してオレンジは、「そもそもプロテクションは、設計者が将来のユーザーの行動を先回りして評価するものであるので、そのプロテクションをネットワーク化して判断する仕組みもその延長と考えれば、一線は超えてるかもしれないけど、その線から遠く離れていないのではないか?><」(超々意訳)って答えたら、完全に納得してくれた><
そもそも複数のプロテクションで構築されたシステムは、マクロ視点では段階的なプロテクションを持っているよね>< って話><
https://mstdn.nere9.help/@orange_in_space/116113384168608520
これについてのオレンジの考えの妥当性をGPT-5に尋ねたら、話がそれてってなぜかオレンジが考えるコクピット設計思想の説明を求められて、そこに対する疑問を解消する激しい議論になり、GPT-5が持った疑問の解消に1時間くらいかかった><
またオレンジが説明する側になってる・・・><
AIに踊らされず自分の思考を取り戻す方法とは? - GIGAZINE https://gigazine.net/news/20260221-ai-cognitive-atrophy-risk/
"...しかし、AIに頼り過ぎると「まず最初に自分で考えてみる」という過程がなくなり、「AIにプロンプトを送り、AIが返した答えを検討する」というやり方にシフトしていってしまうとのこと。..."
これ、元からの姿勢の影響がたぶん大きいよね><
オレンジは何事もまず自分で考えてから正解を見る、素晴らしい本は最初には読まず、まず自分の意見を持ってから、その意見が妥当であるかを確認する手段として読むことにしてる(そうじゃないと本の鵜呑みになる)から、
AIの使い方も基本的には、自分の考えが正しいかを検証する形で使ってるし、プロンプトも「このように考えたのですが、そういった研究はありますか?><」みたいなフォーマットになってる事が多い><
世界と北海道を比較できるらしい
https://x.com/kisho_bousai/status/2025130005986967844?s=20
Laziness Impatience Hubris https://wiki.c2.com/?LazinessImpatienceHubris
どっちかっていうとトイルの削減みたいな文脈という認識
「AIが面倒くさがらずにこれだけ優秀な開発者として認識されてしまうと、「僕はプログラマだから怠惰でいいんだ」とか言っても寒いだけである」世知辛い
---
怠惰がプログラマの美徳でなくなってしまった日
https://kanatoko.wordpress.com/2026/02/16/怠惰がプログラマの美徳でなくなってしまった日/
#bookmarks
つまり簡単に言えば「この人は詳しそうだから聞いてみよう」をLLMが実際にしてる事はそれなりに多いらしい・・・><
オレンジによる解説をLLMが『参考になった』と判断してるかはわかんないけど、参考になったと判断した場合は活かされるっぽい><