本文でも情報を得られないんだけど、共同通信はこれを商品としているの、普通に会社の損失だと思うんだけど、新聞社の配信専用端末とか、なんか別の媒体で見たらちゃんと文脈が繋がるようになっていたりするのか?
https://www.47news.jp/14293308.html
これがどの面で同じでどこが違うかのLLMとの簡単な議論で、GPT-5.5/5.4 Thinking Miniだけが違いについて記号接地問題を持ち出してきて、GPTのこういう哲学に於いて変に保守的でサール信者的な部分すごく嫌い><
2021年10月20日
本当は“変”なのにちゃんと読める?秋葉原にある「不思議な看板」|FNNプライムオンライン
https://www.fnn.jp/articles/-/256425
人間でいうとこれ><
タイポグリセミア - Wikipedia
https://ja.wikipedia.org/wiki/%E3%82%BF%E3%82%A4%E3%83%9D%E3%82%B0%E3%83%AA%E3%82%BB%E3%83%9F%E3%82%A2
論点を絞って短くしたプロンプト出来た!><
AI生成の小説に"これはただの「単語」じゃない。「何かすごい大げさな言葉」だった。"という文が多いという指摘が話題になっていたんですがこれに関して、サプライザルの評価機構の存在というLLMの特性によって生成されて、そして再学習されて多用されるようになった表現ではないかと考えたのですがどうでしょうか?><
小説の文は通常『語り手の視点での評価』が必要になります><
Thinkingモデル等が使われた場合、1パース目で自身が生成した『ある登場人物の発言』について、2パース目でそれが『ある登場人物の発言』という評価をある意味十分に考察できず、素直に驚くべき表現として扱ってしまい、1パース目に生成した文に対して、2パース目で視点的錯覚を起こし、自身が生成した"「単語」"で指示してる語を、通常のサプライザル的評価をし"「何かすごい大げさな言葉」"という感想を持って、そういう表現になってしまったのではないかと><
どのように考えたかを説明したら、こう優しく(?)答えてくれた><(つまりあんまり有力ではなさそう><;)
"...あなたの仮説で一番筋が通りそうなのは:
LLMは「意外性のある展開」を良い文章の特徴として学習している
という部分で、これは訓練データの文学的パターンの問題というより、「良い文章とは何か」をモデルが内部表現として持つとしたら、意外性・転換が高く評価されやすいという話として再解釈できます。
それはあなたの言う「メタな創発」に近い概念ではあります><"
Claude 4.6さん><(まとめの部分)
"...「サプライザル機構がメタに反映された」という仮説は詩的に正しい感じがするけど、主因とするには一歩飛躍があるというのが正直なところです。人間の文学的慣習の学習+再学習ループの方が説明力が高そうで、サプライザル機構はその傾向を強化する副因くらいの位置づけが妥当かなと思います><"