フォロー

「AIに対する「暴言ユーザー」を水面下でログに残す。 これは今回流出したClaude Codeのソースコードから見つかった機能と言われており、OpenAIにも「Toxic User Scoring」という暴言ユーザー対策が盛り込まれているとのことです。 私もAIサービスを展開する身ですが、CSチャットでも0.1〜0.3%ぐらいはこの手の人間がいますし、AIログで言うともっとその規模は膨れ上がるでしょう。 なぜAIが全て対応しているのに、わざわざ暴言ユーザー検知などという機能を盛り込んでいるのか。 これは推測に過ぎませんが、 普通に「暴言度合いが酷いから」に尽きるでしょう。 AIになら何を言ってもOKという風潮はありますが、何かあれば1次対応するのは人間ですし、エンジニアが一時対応することも多い、ログ取得も学習OKにしている場合そのログを見るのは研究者たちです。 裏にいる、暴言ユーザーログのストレスでいなくなると困るエンジニア・研究者たちと暴言を垂れながすユーザーを天秤にかけた時に、 前者を優先し、後者を取り除こうとするのは サービスオーナーとしては合理的な判断であるように思われます。」

ログインして会話に参加
:realtek:

思考の /dev/null