おすすめローカルLLMモデル

おすすめローカルLLMモデル【2025年版】用途別に解説

ローカルLLMには多くのモデルがあります。用途に合ったものを選びましょう。

この記事では、2025年時点のおすすめモデルを用途別に紹介します。

1. モデル選びの基準

考慮すべき点

基準 内容
サイズ 大きいほど高性能だがリソース必要
日本語性能 日本語タスクには重要
ライセンス 商用利用の可否
特化分野 コーディング、会話など

サイズと性能の関係

【一般的な傾向】
1B-3B:基本的なタスク、軽い処理
7B-8B:多くの用途に対応、バランス型
13B-14B:高品質な応答、複雑なタスク
30B以上:最高品質、要ハイスペック

2. 汎用モデル

Llama 3.1 / 3.2(Meta)

【特徴】
・Meta(Facebook)開発
・オープンソースの代表格
・商用利用可
・多言語対応

【サイズ】
・8B(推奨: 入門〜実務)
・70B(推奨: 高品質)
・405B(研究用)

Ollama
ollama pull llama3.1
ollama pull llama3.2

Qwen 2.5(Alibaba)

【特徴】
・Alibaba開発
・日本語性能が高い
・商用利用可(条件あり)
・バランスの良い性能

【サイズ】
・0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B

Ollama
ollama pull qwen2.5
ollama pull qwen2.5:14b

Gemma 2(Google)

【特徴】
・Google開発
・軽量で高性能
・商用利用可

【サイズ】
・2B, 9B, 27B

Ollama
ollama pull gemma2
ollama pull gemma2:27b

Mistral(Mistral AI)

【特徴】
・フランス発のスタートアップ
・効率的なアーキテクチャ
・商用利用可

【サイズ】
・7B, Mixtral 8x7B

Ollama
ollama pull mistral
ollama pull mixtral

3. 日本語特化モデル

ELYZA(日本語Llama派生)

【特徴】
・日本発のモデル
・Llama 2/3ベースの日本語特化
・日本語性能が高い

Ollama
ollama pull elyza/llama3-jp

Swallow(東工大)

【特徴】
・東京工業大学開発
・日本語継続事前学習
・研究用途向け

Japanese StableLM

【特徴】
・Stability AI Japan開発
・日本語に特化
・商用利用可

日本語モデルの注意点

性能比較

最新の汎用モデル(Qwen, Llama)も日本語性能が向上しており、専用モデルと遜色ないケースも

おすすめ

まずQwen 2.5を試してみる → 不足なら日本語特化モデルを検討

4. コーディング特化

DeepSeek Coder

【特徴】
・コーディングに特化
・多言語対応(プログラミング言語)
・高いコード生成能力

【サイズ】
1.3B, 6.7B, 33B

Ollama
ollama pull deepseek-coder

CodeLlama

【特徴】
・Meta開発
・Llamaのコード特化版
・Python, Java, C++など対応

Ollama
ollama pull codellama

Qwen2.5-Coder

【特徴】
・Qwenのコード特化版
・最新のコーディング性能

Ollama
ollama pull qwen2.5-coder

5. 軽量モデル

Phi-3(Microsoft)

【特徴】
・Microsoft開発
・超軽量で高性能
・スマートフォンでも動作

【サイズ】
・mini(3.8B)
・small(7B)
・medium(14B)

Ollama
ollama pull phi3
ollama pull phi3:mini

Gemma 2B

【特徴】
・Google開発
・2Bで高い性能
・エッジデバイス向け

Ollama
ollama pull gemma2:2b

TinyLlama

【特徴】
・1.1Bパラメータ
・超軽量
・基本的なタスク向け

Ollama
ollama pull tinyllama

6. 画像対応(VLM)

LLaVA

【特徴】
・画像と言語を統合
・画像の説明、質問応答
・ローカルで動作

【サイズ】
7B, 13B, 34B

Ollama
ollama pull llava
ollama pull llava:13b

Qwen2-VL

【特徴】
・Qwenの画像対応版
・高い画像理解能力

Ollama
ollama pull qwen2-vl

Llama 3.2 Vision

【特徴】
・Llama 3.2の画像対応版
・最新のVLM

Ollama
ollama pull llama3.2-vision

7. 用途別おすすめ

文書作成・要約

おすすめ
  • Qwen 2.5 14B(日本語◎)
  • Llama 3.1 8B(バランス○)
  • Gemma 2 9B(効率的)

日本語重視 → Qwen / 英語中心 → Llama, Gemma

コーディング支援

おすすめ
  • DeepSeek Coder
  • Qwen2.5-Coder
  • CodeLlama

汎用 → DeepSeek Coder / Python → CodeLlama:python

画像分析

おすすめ
  • LLaVA
  • Llama 3.2 Vision
  • Qwen2-VL

図面読み取り → LLaVA / 写真分析 → Llama 3.2 Vision

リソース制限がある場合

おすすめ
  • Phi-3 mini(3.8B)
  • Gemma 2B
  • Qwen 2.5 3B

VRAM 4GB以下でも動作可能

最高品質が必要な場合

おすすめ
  • Qwen 2.5 72B
  • Llama 3.1 70B
  • Mixtral 8x7B

VRAM 24GB以上推奨

8. Ollamaでの使い方

モデルのダウンロード

bash
# モデルをダウンロード
ollama pull llama3.1
ollama pull qwen2.5:14b

# 利用可能なモデル一覧
ollama list

モデルの実行

bash
# 対話モード
ollama run llama3.1

# 特定サイズを指定
ollama run qwen2.5:14b

モデルの削除

bash
# 使わないモデルを削除
ollama rm llama3.1

9. まとめ

モデル選びの目安

用途 おすすめモデル
日本語重視 Qwen 2.5
汎用 Llama 3.1
コーディング DeepSeek Coder
軽量 Phi-3
画像対応 LLaVA

サイズの目安

【入門・軽量】3B-7B
【実務】7B-14B
【高品質】30B以上

関連記事

お問い合わせ

ローカルLLMの選定についてのご相談は、お気軽にお問い合わせください。

お問い合わせはこちら

最終更新: 2025年1月