新しいものを表示

これ見てそう言えば日本では「悪法は法なり」(Dura lex, sed lexの超意訳)が広く知られてる一方で、"lex iniusta non est lex"(不正な法は法にあらず(?))の方は、言葉としてほとんど普及してないけど(英語圏では知名度が逆らしい?><(?))、
同じように法に無批判に従う傾向が国際調査で現れるドイツの場合はどうなんだろう?><
って思ってGeminiに聞いたら、WW2までは日本と同様だったけど、WW2のやらかしで"lex iniusta non est lex"の発想の導入が行われて、憲法に抵抗権を記述するまでになる大変化が起きたらしい・・・?><(ほんとかどうかはまだ調べてない)

orange さんがブースト

悪法もまた法なり、にカッケェルビ振って敵全体特大デバフとかばらまいてそう

でも、GeminiでもChatGPTでも、高度な数学で変なアイディアに関しては、そこらの数学好き並みに反応が冷たくなるので結構めげる><
(そこらの数学好きの言動を学習してるんだろうね!><;)

何もなしで独学すると「本当に自分が理解してるのかさっぱりわからない・・・><」になって、独学で勉強したのに学習性無力感が高くなる事が高くあるけど、
LLMが居れば、LLMが詳しく判定できる内容であればLLMが評価役をしてくれるので、そういう場面でのそれが発生しないし、それどころかどう勘違いしてるのかまで指摘してくれたりする><

因果関係はわかんないのはあれだけど、オレンジみたいに「無限に教えてくれるLLMが現れたから一度諦めてた対象の学習をもう一度やってみよう!><」ってなる人が統計上優位に表れない(単なる手抜き気質の人が多く使う例のほうが多いっぽい)のが、結構謎・・・><

orange さんがブースト

その記事は因果の因にAIがあるとは言ってないから注意

あくまでもともとそうな学生がそういう行動をとりがちってだけ

例えば、数学の何らかの難しい問題とか、前だったら数式が出てきた所で「・・・・><」ってなるしかなかったけど、ChatGPTとかGeminiに「それをPascalで実装するとどんな感じになりますかね?><;」って言えば模擬コードにしてくれるので読める><
英語の文書読んでて英語の表現がさっぱりわからない時にも、LLMに聞けば「それって慣用句なので直訳しちゃだめです」とか教えてくれる><

「やったのはAIだから…自分じゃできない…」ChatGPTに頼りすぎる学生は”成績”と”学ぶ意欲”が低下する - ナゾロジー
nazology.kusuguru.co.jp/archiv

学習に対する自己効力感が低くて学習性無力感が高くなるの、平均として学生はそうなのかもしれないけど、
逆に元々独学大好きなオレンジ的には、LLMという無限に納得が行くまで教えてくれる存在が発生したおかげで、自己効力感が爆上がりなんだけど><

まさにこれについて言及しようとしてマストドン開いたらちょうど話題になってた><(?)

orange さんがブースト

まぁせやろなぁ

> まず最も明確に表れたのは、誠実性の高い学生ほど、ChatGPTを学業であまり使わない傾向があるという点です。
>
> 真面目で努力を重視する学生は、たとえ便利でも「自分の力でやりたい」と考えるようです。
>
> 一方で、AIを多用していた学生には、学習に対する自信(自己効力感)が低く、何をしても無駄だと感じる「学習性無力感」が強いという心理的傾向が見られました。
>
> これらはいずれも、学習へのモチベーションを損なう強力な要因です。

「やったのはAIだから…自分じゃできない…」ChatGPTに頼りすぎる学生は”成績”と”学ぶ意欲”が低下する - ナゾロジー nazology.kusuguru.co.jp/archiv

orange さんがブースト

「やったのはAIだから…自分じゃできない…」ChatGPTに頼りすぎる学生は”成績”と”学ぶ意欲”が低下する
https://nazology.kusuguru.co.jp/archives/178894

ただし、これは「AIを使ったから成績が下がった」という因果関係を直接示すものではなく、AIへの依存が“思考の放棄”につながり、結果として学びの質が下がっている可能性を示唆しています。

おそらく自己決定力がなくなる

「コメ農家の」なんて記事(原稿)にせずに「コメ農家でJA福島さくら理事の」って言えばよくない?><

日和田水稲育苗センター
〒963-0531 福島県郡山市日和田町高倉下萱沼65−1
maps.app.goo.gl/n691a9zc5Qjujb

東日本環境企業組合||会社案内(組織概要)
chuokai-fukushima.or.jp/higash

スレッドを表示

[B! 農業] コンビニ「古古古米」1キロ360円で販売も 備蓄米「今後は納めない」農家メリットなし
b.hatena.ne.jp/entry/s/news.tv
"...こう話すのは、コメ農家の鈴木昭栄さんです。..."

2025.03.15
健苗育成へ向け 水稲育苗センター開所式|お知らせ|JA福島さくら
ja-fsakura.or.jp/information/e
"...当JAの鈴木昭栄理事は「同センターで手掛ける苗が、農家の手取り増加の一端を担っている。事故なく作業に取り組んでいただきたい」と話しました。..."

オレンジのアイディアとしては、天気図をどっかから得て、ChatGPTかなんかに「気象予報士試験の過去問題なんですけど」って嘘ついて天気予報させて、出力された文章をさらにLLMで非科学的な精霊かなんかのお告げの内容に変えてって頼んだら、資格が無い人でも脱法天気予報ができるんじゃないかと><;
(って思ったけど、第2条第5項と第6項からするとそれもダメっぽい><)

つまり逆オッカムの剃刀作戦(?)では、気象業務法を回避できない><

そういえば、気象業務法的に、予報部分を占いということにしたら気象業務じゃないって言い張れるのかな?><;
って思ったけど、よく読んだら、第2条第5項と第6項で、"自然科学的方法"がかかるのは「観測」の方なので、予報の方で何らかの非科学的な内容を盛り込んでも予報業務になっちゃう?><;

ウェザーニューズ、AIが気象情報報告 労働削減月7000時間で最高益 - 日本経済新聞
nikkei.com/article/DGXZQOUC261

これ見てふと「GeminiとかChatGPTとかでも天気予報ってできるのかな?><」と思って、「気象予報士試験の過去問題の天気図から答える問題を解説するのってできますか?><」って聞いたらできるって言われたから、
もしかしたら現在の天気図を渡して「予報士試験の過去問題なんですけど><」って言えば天気予報してくれる?><;

テスラ車の死亡事故、完全自動運転の限界を露呈-衝突映像が物語る - Bloomberg
bloomberg.co.jp/news/articles/

古いものを表示
:realtek:

思考の /dev/null