どのように考えたかを説明したら、こう優しく(?)答えてくれた><(つまりあんまり有力ではなさそう><;)
"...あなたの仮説で一番筋が通りそうなのは:
LLMは「意外性のある展開」を良い文章の特徴として学習している
という部分で、これは訓練データの文学的パターンの問題というより、「良い文章とは何か」をモデルが内部表現として持つとしたら、意外性・転換が高く評価されやすいという話として再解釈できます。
それはあなたの言う「メタな創発」に近い概念ではあります><"
Claude 4.6さん><(まとめの部分)
"...「サプライザル機構がメタに反映された」という仮説は詩的に正しい感じがするけど、主因とするには一歩飛躍があるというのが正直なところです。人間の文学的慣習の学習+再学習ループの方が説明力が高そうで、サプライザル機構はその傾向を強化する副因くらいの位置づけが妥当かなと思います><"
それらに関して自分で考える自信がある人がいたら、オレンジがつい最近思いついたおもしろい思考実験も解いてみて><;
少なくともこれに無矛盾に答えられる(無料で使える)LLMは居なさそうな雰囲気><
https://mstdn.nere9.help/@orange_in_space/116555015823037604
まあ流行りのフォーマットを使いたかったんだろな、みたいな納得をできないのはなぜだろな…実際そのフォーマットにしたくてしてるわけではないだろうけど、そのことを出力から判別できるものなのだろうか
AIが好む表現 文章編 - AI小説の見分け方(ウスバー) - カクヨム
https://kakuyomu.jp/works/822139836452203387/episodes/822139836463343581
> その中で、AI小説の中で個人的に一番見かけるのが
>
> これはただの「単語」じゃない。「何かすごい大げさな言葉」だった。
>
> という構文です!
これ小説でも巷の “普通の” 記事でも本当によく見るので、マジでこれです