ローカルAIモデル選び
* Lemonade Suggented Models
* FastFlowLLM NPU
* gpt-oss-sg-20b-FLM
- 少し待たされる。現実的な賢さ。
* Llama.cpp GPU
* Gemma-4-31B-it-GGUF
- 待たされる。利用可能な中ではかなり賢い。
* Gemma-4-26B-A4B-it-GGUF
- 【常用向き】26Bながらも4B相当の速さ。現実的な賢さ。
* gpt-oss-20b-mxfp4-GGUF
- 爆速。一見賢いようだがトンチンカン。
#トラメモ