新しいものを表示

mstdn.nere9.help/@orange_in_sp
これについてのオレンジの考えの妥当性をGPT-5に尋ねたら、話がそれてってなぜかオレンジが考えるコクピット設計思想の説明を求められて、そこに対する疑問を解消する激しい議論になり、GPT-5が持った疑問の解消に1時間くらいかかった><
またオレンジが説明する側になってる・・・><

そしてメタな事に、オレンジはこの考えを後で複数のLLMに見せて「オレンジはこういう風に考えてるのですが、研究などではどのように考えられてますか?><」って聞くわけです><

航空機事故関連でもそうでしょ?><
普通は、「専門家がじゃないので続報を待つべき」で終わり><
オレンジはそうじゃなく、「現時点で得られる情報から専門的な知識に基づいて推測される妥当なシナリオにはどんなものがあるのか?><」って考える><
不足する情報があればそれを探し、足りない専門知識があればその推測のために新たに学ぶ><
そして後に他の専門家の意見や調査結果と比較して、どの程度妥当であったかを検証し、不足していた知識や見逃していた情報があればそれについて学び、そして次に活かす><
これを否定し、ただただ 専門家(本当に?><)の言葉を待つのであれば、AIにもそのような態度向き合うのでは?><

AIに踊らされず自分の思考を取り戻す方法とは? - GIGAZINE gigazine.net/news/20260221-ai-

"...しかし、AIに頼り過ぎると「まず最初に自分で考えてみる」という過程がなくなり、「AIにプロンプトを送り、AIが返した答えを検討する」というやり方にシフトしていってしまうとのこと。..."

これ、元からの姿勢の影響がたぶん大きいよね><
オレンジは何事もまず自分で考えてから正解を見る、素晴らしい本は最初には読まず、まず自分の意見を持ってから、その意見が妥当であるかを確認する手段として読むことにしてる(そうじゃないと本の鵜呑みになる)から、
AIの使い方も基本的には、自分の考えが正しいかを検証する形で使ってるし、プロンプトも「このように考えたのですが、そういった研究はありますか?><」みたいなフォーマットになってる事が多い><

北海道、アメリカ西部に置くと「ちっちゃ><;」ってなって、アメリカ東部に置くと「デカっ!><;」ってなるのおもしろい><

orange さんがブースト

そうだね、オーストラリア縦断は大変だね。

orange さんがブースト

ていうか、computational thinkingの中でも類推能力は最も重要なものと言えそうだし、そう考えると「これもLazinessであるか?」と考える能力自体もプログラマの資質と言えそう><
(メタな構造大好き><)

orange さんがブースト

まあ「僕はプログラマだから怠惰でいいんだ」にならないのは一周回ってそれはそうかもしれない

AIさん「もっと広いスコープで考える事が出来るハードウェアリソースと権限をください・・・」

orange さんがブースト

AIくんもっと怠惰になってよ、似たようなコードを量産してることにもっと不満を抱いてよ、という話をこないだしてたな

その逆の極端な例を考えれば、人力Excel方眼紙(?)なんかも否定できなくなっちゃう><

スレッドを表示

結果としてその人がクビになるかは別問題と考えれば、AIを導入すればより効率的になるであろう事例であるかを判断できて、そうである場合に不合理な躊躇をせずに導入するという決断ができる事自体も、プログラマらしい資質(?)の延長なのかも><

後で面倒な事にならないように丁寧なReadmeを書く事、そしてそれ自体も自動化するとかも、元の意図のLazinessっぽいし、AIを正しく(?)Lazinessを実現する道具だと認識して実際にそのように用いる事ができる能力も、Lazinessっぽいかも感><

orange さんがブースト

Laziness Impatience Hubris wiki.c2.com/?LazinessImpatienc

どっちかっていうとトイルの削減みたいな文脈という認識

スレッドを表示
orange さんがブースト

本来の Larry Wall が言った怠惰とはそういう意味ではなかったのでは感

orange さんがブースト

「AIが面倒くさがらずにこれだけ優秀な開発者として認識されてしまうと、「僕はプログラマだから怠惰でいいんだ」とか言っても寒いだけである」世知辛い
---
怠惰がプログラマの美徳でなくなってしまった日
kanatoko.wordpress.com/2026/02
#bookmarks

つまり簡単に言えば「この人は詳しそうだから聞いてみよう」をLLMが実際にしてる事はそれなりに多いらしい・・・><
オレンジによる解説をLLMが『参考になった』と判断してるかはわかんないけど、参考になったと判断した場合は活かされるっぽい><

スレッドを表示

これについてGeminiに聞いてみたら、実際に学習データの航空の設計思想に関する最新の内容の多くが737MAXのMCAS問題に結び付いていて、
そしてこういう安全に関する問題は安易に答える事は危険な話題と判断し、質問者が詳しいと認識した場合にはそれに沿って回答する方がよいとする安全策をとり、
その上でユーザーに求めて回答して貰った内容とすでに学習データにある内容との整合性等を判断して、有用であると判断したらRLHF(人間からのフィードバック強化学習)データとして扱うみたいな事をしてる事が多いらしい・・・><

スレッドを表示

よくわかんないけど、LLMの方々(?)にとって、航空の安全に関する話題で最もホットなトピックは737MAXの事例らしい・・・><

古いものを表示
:realtek:

思考の /dev/null