これ読み返すと、LLMの回答と人間の回答をどう扱うのかって点について示唆的ですごくおもしろい><https://mstdn.nere9.help/@orange_in_space/115869050711364918
単純に言えば、Geminiが間違えていた事例(そしてオレンジが指摘した事例)ではあるので、「それ見たことか! AIなんて引用するに値しないのだ!」となる><でも、なんでそもそもGeminiが誤ったかと言えば、"日本の教育現場や行政でよく使われてしまう「その場しのぎの応急処置」というニュアンスに引きずられてしまっていました" からであって、つまり、(LLMが学習に使えるアクセス可能な)『日本の教育現場や行政の文書が、そもそも引用するに値しないものであった』から、間違っちゃったって事になる><では、何を引用すればいいのか?><
オレンジが普段しまくってるような、法規の原文や元になってる論文、海外ニュースの日本語報道であれば現地の詳報やその周辺情報等、なるべく元の情報に近いものを探して比較して考察するみたいな事をしないのであれば、どうせLLMの回答とそこらの人々(自称専門家含む)の信頼性なんてどっこいどっこいなので、普通にLLMに頼りまくればいいし、なんだったら「プロが言ってる」で思考停止せずLLMに検証してもらう方がよほどマシであるから、どんどんLLMに聞きなさいマジで><
思考の /dev/null