新しいものを表示
orange さんがブースト

大学の学部くらいでやる単元なら大きな図書館にテキストあると思うので、 (初学者向け! 入門! みたいなのではなく) 堅苦しそうなテキストで勉強してみることはできると思う

orange さんがブースト

まあ専門書が高いのは紛れもなく事実なのだが、じゃあ人に聞くのが安いかといえばそんな都合の良い話はなく安いなら安いなりの理由があるのである……

体系的に学ぶおかねなんて無いし、オレンジの能力で非整数次元の距離の性質について学ぶまでに何冊本を読めばいいのか?><

orange さんがブースト

体系的に学ぶといいね2024のような気もする

ググったりした範囲でそもそもどう調べていけば答えにたどり着くのかもわからなくて、本を買うお金もないし仮に買えてもどの本を買えばいいのかすらわからないならば、ヒントを投げてくれる人が現れるか諦めるしかないじゃん?><
もちろん単に待ってたわけじゃなく、思い出す度に調べて「やっぱわかんない><」ってなって「わかんない><」ってSNSに書くって何度かやったわけだけど><

orange さんがブースト

私が人と話して何かを得るときって、おおよそ「情報を集める」とか「直観を強化する」的な面が強い気がしていて、何かの習得や修得そのものを成果として期待していないなと思った

スレッドを表示
orange さんがブースト

他意はないんだけど、昔から趣味は独学でやっていて他人からのインタラクティブな解説を期待したことがまったくないので、根本的に学びの方法へのスタンスが違うのかなという感想はある (べつにインタラクティブな学びを否定しているわけではない)

もちろん、ChatGPTさんがオレンジでもわかるように説明できなかったパターンなので、そもそもChatGPTさんのこの「計算できそうに見えるけど、非整数次元では成り立たないです」って回答があってるかもわからない><

これがなぜかについては、ChatGPTさんもオレンジがわかるようには説明できなかったので、微積分すらよくわかってないオレンジでもわかるように説明できる人間が現れたら、少なくともChatGPTよりも数学教育能力が優れてる可能性があるといえるのかもしれない><
mstdn.nere9.help/@orange_in_sp

orange さんがブースト

ユークリッド距離の定義が「p-ノルムのpが2のやつ」って定義から、正n方体の対角線ユークリッド距離が
((1^2)*n)^(1/2)
であるのならば、シェルピンスキーのカーペットのハウスドルフ次元は「 log 8/log 3 」なんだし、それを使ったら
((1^2)*(log 8/log 3))^(1/2)
で、正シェルピンスキーのカーペット体(?)のユークリッド対角線距離のようなものが出せちゃうんでは?><;
ってChatGPTさんに聞いたら、「ハウスドルフ次元ではそれは成り立たないのでダメで、なのでそれはユークリッド距離ではないです(意訳)」的なこと言われた><

orange さんがブースト

オレンジついに微分の理解が必要な場面に初めて遭遇!><;

orange さんがブースト

非整数次元の距離の謎で、シェルピンスキーのカーペットのp-ノルムってどうやって計算するのってChatGPTに聞いたら、こういう答えが返ってきた><
あってるかわかんないけど><

2年以上何回か疑問に出しても、ミンコフスキー距離という言葉ですらも誰一人教えてくれなかったけど><

orange さんがブースト

法則の名前くらいはさすがに教えてくれる人の方が多いと思うけど…… (界隈と人による、それはそう)

ChatGPTさんに数学の質問をすると、どうしてそうなるのか、どういう名前の理論でそうなるのかについてものすごく教えてくれるよ><
結果的に何を調べれば疑問の回答にたどり着けるかを教えてくれる><

orange さんがブースト

もちろん「それはそう」の話者が情報源として信頼できることは当然前提とすべきだし (信頼できないならそもそも有益な情報源に使ってはいけない)、それが信頼できるなら「自明に導ける理屈の道筋が存在するらしい」という非常に有益な情報を得られるわけです。
エーアイからそれが得られるんですかね (エーアイがそもそも信頼できるかどうかはさておいて)

スレッドを表示
orange さんがブースト

あー、 random person の「それはそう」に情報量がないのはそれはそうですよね (自己言及)

スレッドを表示

「そうだよ(完)」じゃ真偽もわからんけど、
代わりに「そうなんです!よく気づきましたね! それはこういう名前がついてる法則でどうのこうので、でこう計算するとこうなりますね? より深く知りたいならば、hogeについて学ぶといいですよ」
って返事が来たら、その法則やらhogeについてググりまくって「なるほど!><」って出来るし、ChatGPTの回答がおかしかったのかどうかも調べられる><
ていうか実際にそういう流れで学んでる><

「質問者のメンタルモデルを汲み取ってどういうことを学ぼうとしてるのか推察する能力があるか?」という話であって、なんで突然間違ってる前提になるのか?><

その回答自体が正しいかを判断する能力は、周辺や背景まで知識を持たなければつかないんだから「それはそう」しか答えが帰ってこなければ「そうなのか・・・」で終わっちゃうでしょ?><
つまり、らりおさんのアプローチではChatGPTの回答が正しいかを判断するために必要な情報がより少ない><

古いものを表示
:realtek:

思考の /dev/null