オレンジ説が正しいかどうかは、たとえばAI(GPTとか)に被験者に対して何らかの教育を行ってもらう時に、片方の群のプロンプトには被験者の感情を優先することを指示して、もう片方には、感情よりも徹底して論理的な組み立て(?)を優先して教育する事を指示して、教育を受けた被験者のパフォーマンスを測ればおk?><
思考の /dev/null