ふと思ったけど、LLMって人間がLLMに指示するよりも、LLMが人間に指示するって形の方が誤りが減るのかも?><関連する文のつながりで考えるという原理上、指示というか目的達成のための行動設計みたいなのを作る事こそ得意分野かも?><
と思って、既に複数のLLMに「こんな変なことを友人が言い出した!><;」って聞き方で聞いてみたら、わりと肯定的だった><
思考の /dev/null
と思って、既に複数のLLMに「こんな変なことを友人が言い出した!><;」って聞き方で聞いてみたら、わりと肯定的だった><