[B! AI] 「推論する生成AI」は事前学習されていない課題を正しく推論することができない(共変量シフトに弱い) - 渋谷駅前で働くデータサイエンティストのブログ https://b.hatena.ne.jp/entry/s/tjo.hatenablog.com/entry/2025/08/27/173000
ブコメにも書いてる人いるけど、逆に人間がどうやって推論してるのかほんと謎><少なくともオレンジの体感では、意識の部分で推論するだけじゃなく、なんか知らんけど意識の外側から答えというか道筋がが降ってくる感覚があるけど、気のせいなのかそれとも無意識下のどこかの脳の機能がコプロセッサみたいに推論してるのか?><
意識の部分での推論って、文章ベースで脳内議論を3次元の図を描きながら行う感じだけど、無意識での推論はほんとに一瞬で完了するので自分でもなにがなんだかわからない>< ただ、元から持ってたわけじゃなく意識の部分での推論の癖をつけるようになってからそうなるようになったので、トレーニングによって形成されたっぽいのがあれかも><
思考の /dev/null