スイスチーズモデル的な話がしたいのかもしれないけど、あれも結局は正常な操作のうち最終的に必要になるものはどうにかチーズの層を越えられることを前提においていると思うので (でないと製品や操作体系としてそもそもの目的を果たせるものでないということになる)
で、全く本題ではないが https://mstdn.nere9.help/@orange_in_space/116536523857603601 での例について言及しておくと、健全な静的型システムは「問題のないプログラムを拒否することはあるが、問題のあるプログラムを許容することはない」というある種の一方向性こそが安全と利用しやすさに寄与しているという面がある。つまり false positive はあるが false negative はない、ということ。
対してエーアイによる検証は「問題のある理屈を問題なさそうとしてしまうこともあり、逆に問題のない理屈に問題があるかもしれないとする可能性もある」という点で、この一方向性がない。よって安全への寄与の側面での喩えとして出すにはちょっと構造的な違いがデカいのではないかと思った
具体的には、エーアイによる情報を丸投げすると「この人は自分では『何も考えなかった』が、本人の頭で考えた場合にそれに気付ける能力がある可能性は否定できない」程度の割と中立・評価保留程度の評価に寄りがちなのに対して、人間による嘘を投げると「この人は自分で考えた結果『思考能力の不足を露呈した』」という無能の保証がつく。
実運用においてこの差は大きい。
うーん、まずエーアイによるかどうかを問わず無検証での丸投げはカス! というのはその通りで異論はない。
そのうえで、 https://mastodon.cardina1.red/@lo48576/116536407114094649 で挙げたように「エーアイを通してフィルタした人間が未検証のデカ情報」は、「エーアイにフィルタさせた痕跡のない人間が未検証の情報」に比べて発言者に与える不名誉効果が小さすぎるという問題がある。この点においてエーアイ使うくらいなら人間が嘘つく方が (周囲の人間にとっては) マシともいえると思う
ちなみにオレンジが一番言いたいことはこれで、
https://mstdn.nere9.help/@orange_in_space/116536458785324368
ピカソの逸話の30年相当部分が無く、何らかの議論の議題に対して30年相当部分を持とうとする積もりがないのであれば、LLMを使う方が鵜呑みにする(無検証でスルーさせる)よりずっとマシなので、せめてLLMくらい使え><
です><
黴の生えたレトリックだなとは思うけど、その部分を “修正” したところで本題にそこまで大きな影響はないかなと感じます (エーアイの “知性” を信じる人にとっては大きな違いかもしれないが)
手抜き (あるいは手抜きと同等にコストをかけて取り扱う必要のあるもの) を送りつけられた結果、受け手のこっちがコストをかける必要がある、これが迷惑だと言っており、まったくその通りであると思う。
受け手が検証をするとかしないとかそういう段階の話ではない。それよりも前のステップの問題。
ちなみに元記事のこの部分は、LLMに関して技術的にもガチの哲学的にも間違った主張です><
"...生成されたのは反論ではない。自分を苛立たせた主張に対する妥当な批判かどうかもわからない、もっともらしい文の塊に過ぎない。その問題を理解している人間がAI出力を一行ごとに検証するまでは、それはただの確率論的なワードサラダだ。..."