新しいものを表示

NPU、このままだと消えて無くなっちゃうんじゃないの?

---

Copilot+ PCでローカルLLMをするのは大変 - Qiita - qiita.com/kotauchisunsun/items

スレッドを表示

NPUは一応付いてはいるがまったく役に立たない事が分かった。

スレッドを表示

ローカルAIを試すのに時間を費やしてしまい、本当にやりたかったことができなかった。

コード書かせるのには十分使えるけど、何かを質問するのは向いていない。

スレッドを表示

❌ gemma-2-9b
❌ llama-3.1-8b
❌ qwen2.5-7b

うちのノートPCで快適に動くモデルは全滅。

スレッドを表示

Dynabookの由来についてローカルAIに質問すると、だいたい知らない人の名前が挙がります。つまり嘘です。

正しくはアラン・ケイです。

ローカルAIってなかなか難しいんだなぁ。Web検索機能がないから嘘ばっかりつくし…。

スレッドを表示

CPUとGPUでAIの回答が違うんだ…

結局 Amuse AI も削除した。動くけど使い物にならない。

GAIA削除中。LM Studioでいいや。使いやすいし。

スレッドを表示

Qwenというモデルのせいかもしれないけど、生成が速くても回答がちんぷんかんぷん。

スレッドを表示

間違ってないけど合ってる気もしない実験…

Tora :neko_gray: さんがブースト

個人宅に“企業のデータセンター”設置、廃熱を暖房として活用 英国で実証実験
https://www.itmedia.co.jp/news/spv/2511/21/news041.html

AMDの(?)GAIAって何か優れてるの?

ByteDance のヤツは使い物にならず。速いけど1枚もマトモな絵が出てこなかった。

Turbo は絵が破綻しがち、理解した

うーん、ローカルAI重いなぁ。

でも原型を留めていなかったら元ネタかどうかの判定が難しいから訴訟が地獄になりそう。

SD3.5 は確かにプロンプトの追従性はいいわ。でも500秒近くかかっており、使い物にならない。

スレッドを表示
古いものを表示
:realtek:

思考の /dev/null