おすすめローカルLLMモデル【2025年版】用途別に解説
ローカルLLMには多くのモデルがあります。用途に合ったものを選びましょう。
この記事では、2025年時点のおすすめモデルを用途別に紹介します。
1. モデル選びの基準
考慮すべき点
| 基準 | 内容 |
|---|---|
| サイズ | 大きいほど高性能だがリソース必要 |
| 日本語性能 | 日本語タスクには重要 |
| ライセンス | 商用利用の可否 |
| 特化分野 | コーディング、会話など |
サイズと性能の関係
【一般的な傾向】 1B-3B:基本的なタスク、軽い処理 7B-8B:多くの用途に対応、バランス型 13B-14B:高品質な応答、複雑なタスク 30B以上:最高品質、要ハイスペック
2. 汎用モデル
Llama 3.1 / 3.2(Meta)
【特徴】 ・Meta(Facebook)開発 ・オープンソースの代表格 ・商用利用可 ・多言語対応 【サイズ】 ・8B(推奨: 入門〜実務) ・70B(推奨: 高品質) ・405B(研究用)
Ollama
ollama pull llama3.1
ollama pull llama3.2
Qwen 2.5(Alibaba)
【特徴】 ・Alibaba開発 ・日本語性能が高い ・商用利用可(条件あり) ・バランスの良い性能 【サイズ】 ・0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B
Ollama
ollama pull qwen2.5
ollama pull qwen2.5:14b
Gemma 2(Google)
【特徴】 ・Google開発 ・軽量で高性能 ・商用利用可 【サイズ】 ・2B, 9B, 27B
Ollama
ollama pull gemma2
ollama pull gemma2:27b
Mistral(Mistral AI)
【特徴】 ・フランス発のスタートアップ ・効率的なアーキテクチャ ・商用利用可 【サイズ】 ・7B, Mixtral 8x7B
Ollama
ollama pull mistral
ollama pull mixtral
3. 日本語特化モデル
ELYZA(日本語Llama派生)
【特徴】 ・日本発のモデル ・Llama 2/3ベースの日本語特化 ・日本語性能が高い
Ollama
ollama pull elyza/llama3-jp
Swallow(東工大)
【特徴】 ・東京工業大学開発 ・日本語継続事前学習 ・研究用途向け
Japanese StableLM
【特徴】 ・Stability AI Japan開発 ・日本語に特化 ・商用利用可
日本語モデルの注意点
性能比較
最新の汎用モデル(Qwen, Llama)も日本語性能が向上しており、専用モデルと遜色ないケースも
おすすめ
まずQwen 2.5を試してみる → 不足なら日本語特化モデルを検討
4. コーディング特化
DeepSeek Coder
【特徴】 ・コーディングに特化 ・多言語対応(プログラミング言語) ・高いコード生成能力 【サイズ】 1.3B, 6.7B, 33B
Ollama
ollama pull deepseek-coder
CodeLlama
【特徴】 ・Meta開発 ・Llamaのコード特化版 ・Python, Java, C++など対応
Ollama
ollama pull codellama
Qwen2.5-Coder
【特徴】 ・Qwenのコード特化版 ・最新のコーディング性能
Ollama
ollama pull qwen2.5-coder
5. 軽量モデル
Phi-3(Microsoft)
【特徴】 ・Microsoft開発 ・超軽量で高性能 ・スマートフォンでも動作 【サイズ】 ・mini(3.8B) ・small(7B) ・medium(14B)
Ollama
ollama pull phi3
ollama pull phi3:mini
Gemma 2B
【特徴】 ・Google開発 ・2Bで高い性能 ・エッジデバイス向け
Ollama
ollama pull gemma2:2b
TinyLlama
【特徴】 ・1.1Bパラメータ ・超軽量 ・基本的なタスク向け
Ollama
ollama pull tinyllama
6. 画像対応(VLM)
LLaVA
【特徴】 ・画像と言語を統合 ・画像の説明、質問応答 ・ローカルで動作 【サイズ】 7B, 13B, 34B
Ollama
ollama pull llava
ollama pull llava:13b
Qwen2-VL
【特徴】 ・Qwenの画像対応版 ・高い画像理解能力
Ollama
ollama pull qwen2-vl
Llama 3.2 Vision
【特徴】 ・Llama 3.2の画像対応版 ・最新のVLM
Ollama
ollama pull llama3.2-vision
7. 用途別おすすめ
文書作成・要約
おすすめ
- Qwen 2.5 14B(日本語◎)
- Llama 3.1 8B(バランス○)
- Gemma 2 9B(効率的)
日本語重視 → Qwen / 英語中心 → Llama, Gemma
コーディング支援
おすすめ
- DeepSeek Coder
- Qwen2.5-Coder
- CodeLlama
汎用 → DeepSeek Coder / Python → CodeLlama:python
画像分析
おすすめ
- LLaVA
- Llama 3.2 Vision
- Qwen2-VL
図面読み取り → LLaVA / 写真分析 → Llama 3.2 Vision
リソース制限がある場合
おすすめ
- Phi-3 mini(3.8B)
- Gemma 2B
- Qwen 2.5 3B
VRAM 4GB以下でも動作可能
最高品質が必要な場合
おすすめ
- Qwen 2.5 72B
- Llama 3.1 70B
- Mixtral 8x7B
VRAM 24GB以上推奨
8. Ollamaでの使い方
モデルのダウンロード
bash
# モデルをダウンロード
ollama pull llama3.1
ollama pull qwen2.5:14b
# 利用可能なモデル一覧
ollama list
モデルの実行
bash
# 対話モード
ollama run llama3.1
# 特定サイズを指定
ollama run qwen2.5:14b
モデルの削除
bash
# 使わないモデルを削除
ollama rm llama3.1
9. まとめ
モデル選びの目安
| 用途 | おすすめモデル |
|---|---|
| 日本語重視 | Qwen 2.5 |
| 汎用 | Llama 3.1 |
| コーディング | DeepSeek Coder |
| 軽量 | Phi-3 |
| 画像対応 | LLaVA |
サイズの目安
【入門・軽量】3B-7B 【実務】7B-14B 【高品質】30B以上
関連記事
