新しいものを表示

またUSBドングルを紛失しました。なんなのあれ。

会議は終わったけどダラダラが終わらない…

ん…?500万払って返却…?

---

スズキ、新車サブスク「スズキ定額マイカー5」開始 新型バッテリEV「e ビターラ」を5年契約で月額9万2510円から - Car Watch -
car.watch.impress.co.jp/docs/n

会議までに少し整理した方がいいと思うのですが、いかんせんやる気が尽きました。

translategemma-4b-FLM (NPU翻訳)は実用的な精度と速度で使えることを確認。これは凄い。

スレッドを表示

パクチーなんて三つ葉くらいちょこんと乗っていればいいのに、どさっと山盛りにされると食べられなくなる。

翻訳には良いかもしれんが、NPU で処理するモデルはあんまり使えないかも。

スレッドを表示

ソースコードを吐き出させようとするとタイムアウトで生成途中で止まってしまう模様。

スレッドを表示

なお速度は遅い。eGPU をゴリゴリ回すより2~4倍の時間がかかっている。

スレッドを表示

NPU 対応の AI 凄いね。説明によると 2W 程度で動くとあるが、ケーブルのワットチェッカー(システム全体)は 28w を示している。エコだ。

スレッドを表示

翻訳専門の translategemma-4b-FLM ってのがあるんだよね。ローカル翻訳できるから便利かもしれん。

スレッドを表示

NPU対応モデルのうち
qwen3.5-9b-FLM は重すぎてバグる。
qwen3.5-4b-FLM はギリギリ動くが、ときどき中国語になる。(画像)

スレッドを表示

なんでもないです。いろんな人に怒られそう。

LLMが直接機械語を吐き出せばいいのでは?

phi4-mini-it-4b-FLM (NPU)さん、自身のことはよく知らないそうです。GPU のヤツと比べてちょっとお馬鹿かも。

スレッドを表示

チャッピー曰く NPU 向けにしてはとても重いからやめとけ

△ 後回し
* deepseek-r1
* qwen3.5-9b

スレッドを表示

チャッピーのおすすめ

■ 実務的なおすすめ

あなたの環境なら:

◎ 試すべき順
* phi4-mini-it-4b-FLM(最優先)
* llama3.2 3b(軽さ確認)
* translategemma(用途特化確認)

スレッドを表示

AMD CPU では、Lemonade の中の FastFlowLM NPU のリポジトリを取得して、その中からモデルを選ぶとエコらしい。リポジトリ非表示だったから気が付かなかった。

古いものを表示
:realtek:

思考の /dev/null