方向を変えると、「あらゆる面でエーアイより思考能力が劣っている人間 (仮定的存在とします) であれば自分の頭で考えることにエーアイ以上の価値はない」ということでもありそうだし、このように主張していないということはつまり今のところ「大したことのない多くの人間」はそれでもまだエーアイよりマシという暗黙の前提があるということなんでしょうね。
それが本当かは知らんし、だいぶセンシティブな話なのでインタネッツでやりたくない。
スイスチーズモデル的な話がしたいのかもしれないけど、あれも結局は正常な操作のうち最終的に必要になるものはどうにかチーズの層を越えられることを前提においていると思うので (でないと製品や操作体系としてそもそもの目的を果たせるものでないということになる)
で、全く本題ではないが https://mstdn.nere9.help/@orange_in_space/116536523857603601 での例について言及しておくと、健全な静的型システムは「問題のないプログラムを拒否することはあるが、問題のあるプログラムを許容することはない」というある種の一方向性こそが安全と利用しやすさに寄与しているという面がある。つまり false positive はあるが false negative はない、ということ。
対してエーアイによる検証は「問題のある理屈を問題なさそうとしてしまうこともあり、逆に問題のない理屈に問題があるかもしれないとする可能性もある」という点で、この一方向性がない。よって安全への寄与の側面での喩えとして出すにはちょっと構造的な違いがデカいのではないかと思った
具体的には、エーアイによる情報を丸投げすると「この人は自分では『何も考えなかった』が、本人の頭で考えた場合にそれに気付ける能力がある可能性は否定できない」程度の割と中立・評価保留程度の評価に寄りがちなのに対して、人間による嘘を投げると「この人は自分で考えた結果『思考能力の不足を露呈した』」という無能の保証がつく。
実運用においてこの差は大きい。
うーん、まずエーアイによるかどうかを問わず無検証での丸投げはカス! というのはその通りで異論はない。
そのうえで、 https://mastodon.cardina1.red/@lo48576/116536407114094649 で挙げたように「エーアイを通してフィルタした人間が未検証のデカ情報」は、「エーアイにフィルタさせた痕跡のない人間が未検証の情報」に比べて発言者に与える不名誉効果が小さすぎるという問題がある。この点においてエーアイ使うくらいなら人間が嘘つく方が (周囲の人間にとっては) マシともいえると思う
ちなみにオレンジが一番言いたいことはこれで、
https://mstdn.nere9.help/@orange_in_space/116536458785324368
ピカソの逸話の30年相当部分が無く、何らかの議論の議題に対して30年相当部分を持とうとする積もりがないのであれば、LLMを使う方が鵜呑みにする(無検証でスルーさせる)よりずっとマシなので、せめてLLMくらい使え><
です><
黴の生えたレトリックだなとは思うけど、その部分を “修正” したところで本題にそこまで大きな影響はないかなと感じます (エーアイの “知性” を信じる人にとっては大きな違いかもしれないが)