なんかそれだけじゃなく、LLM側も哲学に関する内容まで学習できるほどモデルが大きくなったので、(人間が指定する)安全の設計も異なっていて(?)、古いモデル向けのシステムプロンプトと、新しいモデル向けのシステムプロンプトで違うんですよみたいなこと言われた><
本人?(本LLM?)に聞くと、安全性を重視するように指示されてるのでそういった質問に安易に断言をする事は避ける(無いも断言じゃね?><;)的な事を述べるので、(これ自体哲学的におかしな主張だけど><;)別にそうしたいわけではなく、「だってそうしろって言われてるから・・・」みたいな感じなのかな?><;