『「自分達の権利を主張する」、意思のあるAI』を作ろうとして、既存のSF等に含まれるAIやロボット達の権利主張シーンの情報により学習データが『汚染』されてしまった結果、そのAIが『本当に権利を主張してる』のか、それとも『SFのネタの情報を会話で返してるだけ』なのかを判断不可能になってしまう・・・って、それ自体がSFネタっぽいし「そもそも、そのふたつに本質的な違いが本当にあるのか?><」みたいになると、もうハードSF王道ネタ一直線っぽさ><;
思考の /dev/null