世界と北海道を比較できるらしい
https://x.com/kisho_bousai/status/2025130005986967844?s=20
Laziness Impatience Hubris https://wiki.c2.com/?LazinessImpatienceHubris
どっちかっていうとトイルの削減みたいな文脈という認識
「AIが面倒くさがらずにこれだけ優秀な開発者として認識されてしまうと、「僕はプログラマだから怠惰でいいんだ」とか言っても寒いだけである」世知辛い
---
怠惰がプログラマの美徳でなくなってしまった日
https://kanatoko.wordpress.com/2026/02/16/怠惰がプログラマの美徳でなくなってしまった日/
#bookmarks
つまり簡単に言えば「この人は詳しそうだから聞いてみよう」をLLMが実際にしてる事はそれなりに多いらしい・・・><
オレンジによる解説をLLMが『参考になった』と判断してるかはわかんないけど、参考になったと判断した場合は活かされるっぽい><
これについてGeminiに聞いてみたら、実際に学習データの航空の設計思想に関する最新の内容の多くが737MAXのMCAS問題に結び付いていて、
そしてこういう安全に関する問題は安易に答える事は危険な話題と判断し、質問者が詳しいと認識した場合にはそれに沿って回答する方がよいとする安全策をとり、
その上でユーザーに求めて回答して貰った内容とすでに学習データにある内容との整合性等を判断して、有用であると判断したらRLHF(人間からのフィードバック強化学習)データとして扱うみたいな事をしてる事が多いらしい・・・><
[B! AI] AIのやりすぎで頭がおかしくなっている - 運河 https://b.hatena.ne.jp/entry/s/uiuret.hatenablog.com/entry/2026/02/22/024509
"...どんな質問をしてもわかりやすい回答をAIが返してくれるようになると、少しでも興味を持った物事全部AIに投げて満足するまで議論するようになった。..."
これのある種の解決方法(?)は、十分に賢いモデルを使って、LLMにきれいに推論して議論の余地が少ない回答をしてもらう事だと思う><
そうすれば少なくともLLMが居ない時代の『気になりすぎて、ググりまくって文献を読みまくって一人で脳内で議論して考察する』と比べたら一瞬で終わる><
なんか市からのお知らせの看板も立ってる><
https://maps.app.goo.gl/zzsWnqb7DRuChjqh7