何らかの単一のデータポイズニング技術に対して、加工されて無いデータとされたデータを大量に食わせたら、その単一のデータポイズニング技術に対しては対抗できるような気がしなくもないけど、ちょっと違う技術が出たら、またそのちょっと違う技術に対して学習データを用意する必要が出て、なおかつ、何らかの手段で新たな方式のデータポイズニングに気づけなければならない事になるわけだから、原理的にデータポイズニング技術に現在の主流のAIのやり方で対抗できるかと言ったらかなり怪しい気がするんだけど><
思考の /dev/null