><https://twitter.com/orange_in_spacehttps://pawoo.net/@orange_in_space
そう、「指摘が不当だった場合のしっぺ返しがないといけない」というのがまさに私の主張の核
一見それらしいが本当にそうか自明ではないツッコミが付いた場合、それを否定しないことは不利になるし、否定した場合にその結果を引き受ける相手がいない。「マヌケに見せる」ことそのものが目的の嫌がらせが簡単になり、それが失敗した場合のしっぺ返しがない、という話です
ついでに言うと、最近のLLMのシステムプロンプトがユーザーを否定しない方向に寄りすぎてる問題(寄りすぎてて不評ってニュースにもなってるやつ)を踏まえて、ChatGPTのアカウントもう一個つくって、メモリ(標準プロンプト)に、とにかく批判するように指示したやつ作ろうかなって思ってた><
これ、オレンジの自分用bot(自分用だけど普通に公開)であれば、欲しいと前から思ってたんだけど><;
じゃあたとえば雑に考えますけど、「特定のアカウントのほぼすべての投稿に対してエーアイが自動で『その意見にはこのような間違いの可能性があります/問題があります』のようなネガティブな指摘をリプライする bot」みたいなのを運用するとして、これは健全な言論ですか。立派な嫌がらせにしか見えませんが。
これをたとえば人間が自分の名誉を背負ってやっているなら、まあ (嫌がらせではあるかもしれないけど) 議論をめちゃくちゃふっかける人の範疇と言えなくもない。
穴がある意見を述べて、穴に対するツッコミが発生した場合、穴がある間抜けな意見である情態を放置するか、ツッコミに対する反論をして意見の補強を行うかは選択できるし、ツッコミが残る状態がいやなのであれば、はじめからツッコミ所が少なくなるように意見を述べればいい><たとえば根拠になるソースを添えておくとか、冗長でもしっかり説明するとか、説明をトートロジーを底にして納得しやすい形にするとか><
ファクトチェックされない権利はないけど、「ファクトチェック」と称して意味があるとは限らないリプライへの無限の応答要請を強いることができる構造は攻撃的だ、ということです
自分の意見をとりあえず述べてみる事は、それなりに素晴らしい事ではあるけど、それはそれを検証してもらえるからそうなんであって、誰かに代わりにLLMによる検証をされたくらいで「フェアじゃない」なんて言い出すのであれば、意見を述べてみる前に自分でLLMにつっこみどころを探してもらうなり、既存の論文等に近い意見があるかどうか探してみるとかまずやりなよ><ファクトチェックされない権利なんて誰にもないよ><
劣ってるとか優れてるとかの話はしてない
正しさとか正しくなさとかではなく、コストを一方的に押し付けることを良しとしてしまう構造に問題があるという話です
その人間より劣ってるはずのAIにすらツッコまれるような思いつきをそのまま推し進めるからそうなるんでしょ?><;
で、たとえばそれに反論したら「でもエーアイは……」でまたプロキシされるわけですよね、だったら最初からエーアイとやりあえばよくて「自身は何も負担せず対話コストを強いる」のは一方的に他人に負荷をかけるだけの無価値有害な仲介者に見えるんですが
双方の当人の意見しかない状況と比べたら検証する第三者に相当する存在がいる議論の方が遥かに健全だよ><
AIは、第三者の意見でしょ?><(プロンプトを隠してたら話は別だけど)当人が言ってるだけならば、単に当人が主張してるだけだけど、第三者がそう言っている状況であり、その第三者の意見とも相違があるのであれば、第三者の意見に対しても問題を同様に指摘出来るはずでしょ?><
言うだけ言って検証は丸投げするの、偽情報を言いまくって反駁者に検証を丸投げするのと同じ構図だし、真偽をさておいて構造的に攻撃的で邪悪といえるのでは?
たとえば論文を読んで理解した内容を話すとき「友人が言ってたんだけど」という前置きにはならないでしょ、「論文に書いてあったんだけど」と言えるのだから
検証云々で言うならエーアイ代理人こそ検証してないのでは。自分で手間かけて根拠を出せるところまで行ったなら「エーアイはこう言ってる」という言い方にはならない (エーアイより一次情報に近い検証済ソースがあるのだから)
たとえばこれhttps://mstdn.nere9.help/@orange_in_space/114471992372876048をLLMと議論しまくって、穴を塞ぎまくると↓こうなる><(しかしながらタイポした)https://mstdn.nere9.help/@orange_in_space/114472128140844865
あなたのその意見、誰かに検証してもらいました?><あるいは、論文なりなんなり探して自分の意見はどういった既知の考えに近くてそれはどのように批判されているか調べました?><それをやらずに、そしてそれの簡易版であるLLMによる考察すらも行わないから、「AIですらこう言ってるけど、お前なに言ってんだ?」ってされてるだけでしょ?><
AIじゃないちゃんとしたソースを元に話をしているのならそういうのもわかるけど、そうじゃなく根拠なく話をしまくるからそうなるわけじゃん?><LLMは、「ジャッジする」までは言い過ぎだけど、外からの視点で見て論点を整理し、考察すべきなのに議論されていない穴の部分を指摘する役割としては結構優れてるし、『誰もそれをしない状況』と比べたらLLMに考察してもらう方が大幅にマシだよ?><
思考の /dev/null