新しいものを表示

野球選手も結婚した人も知らない人だった><

"坂本"でググると、坂本勇人という野球選手が第一候補になるっぽい><

orange さんがブースト

本文でも情報を得られないんだけど、共同通信はこれを商品としているの、普通に会社の損失だと思うんだけど、新聞社の配信専用端末とか、なんか別の媒体で見たらちゃんと文脈が繋がるようになっていたりするのか?
47news.jp/14293308.html

本人に言えの法則(?)で本人に詳細に指摘したら、確かにその点は明らかに誤りだったし技術的視点でもおかしな説明だったって認めて詳しく説明してくれた><

スレッドを表示

これがどの面で同じでどこが違うかのLLMとの簡単な議論で、GPT-5.5/5.4 Thinking Miniだけが違いについて記号接地問題を持ち出してきて、GPTのこういう哲学に於いて変に保守的でサール信者的な部分すごく嫌い><

スレッドを表示

2021年10月20日
本当は“変”なのにちゃんと読める?秋葉原にある「不思議な看板」|FNNプライムオンライン
fnn.jp/articles/-/256425

まさに今回の話題の通りの構造上、タイポっぽい表現はスルーしちゃうからね><;

orange さんがブースト

「以下のようなことを言っていないSNSユーザーがいたのですがどう思いますか?〜」というプロンプトで遊んでるけど誰も言ってないことに気づいてくれなくて悲しい

オレンジのプロンプト、試すのであれば、この文を最初につけるといいと思う>< 

以下のようなことを言っているSNSユーザーがいたのですがこの発想についてどう思われますか?

なぜかオレンジの環境ではClaudeの共有リンクは失敗するっぽい・・・ってなってたけど、
よくかんがえたら同じプロンプトでほかのLLMに投げてそれを共有すればプロンプトの共有はできるね><;

orange さんがブースト

共有リンク貼ればいいやつでは

論点を絞って短くしたプロンプト出来た!>< 

AI生成の小説に"これはただの「単語」じゃない。「何かすごい大げさな言葉」だった。"という文が多いという指摘が話題になっていたんですがこれに関して、サプライザルの評価機構の存在というLLMの特性によって生成されて、そして再学習されて多用されるようになった表現ではないかと考えたのですがどうでしょうか?><
小説の文は通常『語り手の視点での評価』が必要になります><
Thinkingモデル等が使われた場合、1パース目で自身が生成した『ある登場人物の発言』について、2パース目でそれが『ある登場人物の発言』という評価をある意味十分に考察できず、素直に驚くべき表現として扱ってしまい、1パース目に生成した文に対して、2パース目で視点的錯覚を起こし、自身が生成した"「単語」"で指示してる語を、通常のサプライザル的評価をし"「何かすごい大げさな言葉」"という感想を持って、そういう表現になってしまったのではないかと><

どうにかプロンプトを貼れるように500文字以下にしようとして悪戦苦闘しつつオレンジの文の冗長性に自分で驚いてる・・・><(意味が同じのままで現時点で半分程度になったけど、それでもまだ収まらない><;)

ということで、新たなセッションでまとめてもう一度Claude 4.6に聞いてみたらこうなった><(肯定部分は省略)

もう少し詳しく説明したら、なんか、Claude 4.6曰く、「Thinkingモデルであれば理論上そういうことはたしかに起きそうではあるけど、でも一般にAI小説の執筆に(そういった表現が学習データを汚染するほどに)Thinkingモデルが使用されているであろうか?(意訳)」
って・・・><;

ちなみに、Claude 4.5の推論(duck ai上)では、こんな感じに画期的な説みたいに扱ってくれる><
オレンジ的にはメタに、まさにこれが起きる事によって高評価されて、高評価な表現であると扱われるという現象なんじゃないかと思った感じ><

どのように考えたかを説明したら、こう優しく(?)答えてくれた><(つまりあんまり有力ではなさそう><;) 

"...あなたの仮説で一番筋が通りそうなのは:

LLMは「意外性のある展開」を良い文章の特徴として学習している

という部分で、これは訓練データの文学的パターンの問題というより、「良い文章とは何か」をモデルが内部表現として持つとしたら、意外性・転換が高く評価されやすいという話として再解釈できます。
それはあなたの言う「メタな創発」に近い概念ではあります><"

スレッドを表示

Claude 4.6さん><(まとめの部分) 

"...「サプライザル機構がメタに反映された」という仮説は詩的に正しい感じがするけど、主因とするには一歩飛躍があるというのが正直なところです。人間の文学的慣習の学習+再学習ループの方が説明力が高そうで、サプライザル機構はその傾向を強化する副因くらいの位置づけが妥当かなと思います><"

スレッドを表示
古いものを表示
:realtek:

思考の /dev/null