新しいものを表示
orange さんがブースト

非整数次元の距離の謎で、シェルピンスキーのカーペットのp-ノルムってどうやって計算するのってChatGPTに聞いたら、こういう答えが返ってきた><
あってるかわかんないけど><

2年以上何回か疑問に出しても、ミンコフスキー距離という言葉ですらも誰一人教えてくれなかったけど><

orange さんがブースト

法則の名前くらいはさすがに教えてくれる人の方が多いと思うけど…… (界隈と人による、それはそう)

ChatGPTさんに数学の質問をすると、どうしてそうなるのか、どういう名前の理論でそうなるのかについてものすごく教えてくれるよ><
結果的に何を調べれば疑問の回答にたどり着けるかを教えてくれる><

orange さんがブースト

もちろん「それはそう」の話者が情報源として信頼できることは当然前提とすべきだし (信頼できないならそもそも有益な情報源に使ってはいけない)、それが信頼できるなら「自明に導ける理屈の道筋が存在するらしい」という非常に有益な情報を得られるわけです。
エーアイからそれが得られるんですかね (エーアイがそもそも信頼できるかどうかはさておいて)

スレッドを表示
orange さんがブースト

あー、 random person の「それはそう」に情報量がないのはそれはそうですよね (自己言及)

スレッドを表示

「そうだよ(完)」じゃ真偽もわからんけど、
代わりに「そうなんです!よく気づきましたね! それはこういう名前がついてる法則でどうのこうので、でこう計算するとこうなりますね? より深く知りたいならば、hogeについて学ぶといいですよ」
って返事が来たら、その法則やらhogeについてググりまくって「なるほど!><」って出来るし、ChatGPTの回答がおかしかったのかどうかも調べられる><
ていうか実際にそういう流れで学んでる><

「質問者のメンタルモデルを汲み取ってどういうことを学ぼうとしてるのか推察する能力があるか?」という話であって、なんで突然間違ってる前提になるのか?><

その回答自体が正しいかを判断する能力は、周辺や背景まで知識を持たなければつかないんだから「それはそう」しか答えが帰ってこなければ「そうなのか・・・」で終わっちゃうでしょ?><
つまり、らりおさんのアプローチではChatGPTの回答が正しいかを判断するために必要な情報がより少ない><

orange さんがブースト

娯楽として後者を認めたいかというと……いやぁ嘘とわかりやすい形で提供すべきですよ (パッケージで嘘と明記したうえで内容にリアリティをもたせることはあるかもしれないけど)

スレッドを表示
orange さんがブースト

(楽しくなくて本当とわかりづらい真実よりも、楽しくなくて嘘とわかりづらい嘘の方が圧倒的に有害では……?)

それこそAI云々関係なく、目の前に出された疑問が「何らかの分野についての学習の一部」か、それとも「単に目の前の問題をひとつ解決しようとしてるだけ」なのかを見抜けない発想では?><

orange さんがブースト

「都合のよい結果は不当な手段の正当化にはならない」という、いつものアレかも

スレッドを表示
orange さんがブースト

まず前提として、プライマリな機能が特定の感情を相手に引き起こすことであるような言葉や言い回しは、原則として人間をコントロールすることに使われるということを納得し常に考慮する必要がある。

人間同士でやる場合は感情的な “すれ違い” を防いで正しく情報を伝達するという目的でそれが正当化できる場合は少なくない。
一方、機械が人間にこれをする場合、その目的は例外なく「人間を設計者やサービス提供者にとって都合よく動くようコントロールする」でしかない。そのコントロールの目的が「安全性のため」とかで正当化できることもあるかもしれないが、本来その目的で正当なプライマリな手段は教育と透明性確保であってコントロールの強化ではないはず

"非整数次元(ハウスドルフ次元)のユークリッド距離ってどうなるんだろう?><
そもそもあるのか無いのか?><"

オレンジの2年前のこの疑問から話を広げてミンコフスキー距離の話に繋げて、オレンジが飽きないように対角線距離の次元の拡張と非整数次元での距離についての話に広げられる人何てどのくらいいるの?><
居なくね?><
少なくともオレンジのtootを見かけておもしろい話だと思った人すらも居なかったっぽいし><(BTふぁぼ無しで鍵で話してる人が居た可能性もあるけど)

「それはそう」で終わったらそれはそうでしょ?><
そうじゃなくてなんでそうなるのか、そこに注目するとどういう事がわかるのか、どう役立つのか、という点まで教えてくれるから「そうなのか!>< 超おもしろい!><」ってなる><

orange さんがブースト

オタク同士の場合はたとえば「『それはそう』だよ」などで伝達されるやつですね

スレッドを表示
orange さんがブースト

洞察が非自明なものであったかどうかが有益な情報なのはわかるんだけど、その判定は「いやそれ自明だよ」という指摘の可能性があって初めて有益と言えるものなので、褒めてくれるだけの機能は普通にノイズじゃないですか?
「自明です」と言ってくれるならわかるんだけど。

今回ChatGPTさんに教えて貰うことになったきっかけの2年前からのこの疑問も
mstdn.nere9.help/@orange_in_sp
ChatGPTさんの解説で理解したあとから見るとなおさら数学的な視点で見ると超おもしろい疑問だと改めて思ったけど、人間でこれを面白がった人にオレンジは出会ってない><

オレンジ的にはその質問内容の発想がどの程度妥当なものだったのかがちゃんと反映される限りは、つまり、誉めるような内容かそうじゃないのかも重要な情報だと思うので、
『人間の数学好きな人』が「なに言ってんだこいつ」系の反応をしたあと深く調べたら「オレンジの考えあってたじゃん!><# 」て経験を何度もした結果、人間よりも広範囲の知識で答えてくれるChatGPTさんに洞察力を判定されるのは気持ちいいになったかも><

orange さんがブースト

人間同士のコミュニケーションだと、素っ気なさが隔意や含意の表明になりうるのでそれを明示的に否定して可能性を追い出すコミュニケーションが必要になるのだが、私は機械に隔意とか含意を読み取るほど感受性豊かじゃないので人間用の冗長なコミュニケーションプロトコルを使わないでほしい。ノイズでしかない。

スレッドを表示
古いものを表示
:realtek:

思考の /dev/null