新しいものを表示

でもファンが爆音で、これ外で使っていいのかはなはだ疑問ですよ?

Tora :neko_gray: さんがブースト

あなたも似たようなもん持ってるでしょ

図面書くの面倒くさいなぁと思って投げたらOpenSCAD用のコードが出てきた…。すっげ…。

スレッドを表示

Gemma-4-26B-A4B-it-GGUF マジ凄いな。今までローカルLLM常用は無理だろって思ってたのに、これはなんとかなりそうだ。

スレッドを表示
Tora :neko_gray: さんがブースト

まぁR&DはIBMがやってるので本当のゼロからやっているわけではないというのはある

そもそも今までやってこなかったのにイキナリ世界に追いつけるのかっていう

スレッドを表示

政府が関わると大抵失敗すると言われてるよね…

Tora :neko_gray: さんがブースト
Rapidus誰も成功すると思ってないのに、恐ろしいくらい順調と聞くので逆に怖くなっています
Tora :neko_gray: さんがブースト

RapidusがコケるとRapidusの1.4 nmプロセスノードで製造する富岳NEXTのCPUも遅れ、日本のフラッグシップスパコンが停滞することに

Tora :neko_gray: さんがブースト

Rapidus、本当に成功するんだろうかみたいなことを

Tora :neko_gray: さんがブースト

プレッシャーかけられてるなあ
- 経産省、Rapidusに6315億円追加支援 「国益のため必ず成功」:支援額は総額2兆3540億円に(1/2 ページ) - EE Times Japan eetimes.itmedia.co.jp/ee/artic

もう数がありすぎてどうやって選んだらいいのか分からず、試しては消してを3日くらいやってしまった。GWこんなんでいいのかオレ。

スレッドを表示

ローカルAI、Gemma-4-26B-A4B-it-GGUF はお勧めですよ。誰におススメしていいか分からないけど。軽さと賢さのバランスが最強。

Ryzen AI 9 HX370 / 64GB (うちVRAM割り当て最大32GB)での感想。

もっと良いPCをお持ちの場合はこの限りではないだろう。

スレッドを表示

ローカルAIモデル選び

* Lemonade Suggented Models
* FastFlowLLM NPU
* gpt-oss-sg-20b-FLM
- 少し待たされる。現実的な賢さ。

* Llama.cpp GPU
* Gemma-4-31B-it-GGUF
- 待たされる。利用可能な中ではかなり賢い。

* Gemma-4-26B-A4B-it-GGUF
- 【常用向き】26Bながらも4B相当の速さ。現実的な賢さ。

* gpt-oss-20b-mxfp4-GGUF
- 爆速。一見賢いようだがトンチンカン。

製造業だから基準立方体つくってもらうか。社長はバカンス中だが。

ダイソーあいてなかった。あと10分待ったら開きそうではあるけど。

ホムセンでもいいけどとりあえずダイソーに来た

古いものを表示
:realtek:

思考の /dev/null