Googleが2026年4月に発表した Gemma 4 シリーズについて、主要な3つのタグ(latest、e4b、e2b)の違いを比較表にまとめました。
e2b や e4b の「E」は Effective(有効パラメータ) を指し、モバイルやエッジデバイスでの実行に最適化されているのが特徴です。
モデル比較表
| 項目 | gemma4:latest | gemma4:e4b | gemma4:e2b |
| 位置付け | フラグシップ・高性能 | ミドルレンジ・バランス | 最軽量・エッジ特化 |
| ベースモデル | Gemma 4 31B (Dense) | Gemma 4 E4B (Effective 4B) | Gemma 4 E2B (Effective 2B) |
| 有効パラメータ数 | 約310億 (31B) | 約45億 (4.5B) | 約23億 (2.3B) |
| コンテキスト長 | 256K トークン | 128K トークン | 128K トークン |
| 対応モダリティ | テキスト、画像 | テキスト、画像、音声 | テキスト、画像、音声 |
| 推奨環境 | ハイエンドPC、WS、GPU | ノートPC、MacBook | スマートフォン、IoTデバイス |
| 必要メモリ量 | 約17〜20GB (4-bit) | 約5.5〜6GB (4-bit) | 約4GB (4-bit) |
| 主な用途 | 複雑な推論、コーディング、エージェント | 高速なローカル推論、マルチモーダル | 音声認識、翻訳、低遅延応答 |
各モデルの詳細解説
1. gemma4:latest (31B Dense)
Ollamaにおいて標準(latest)タグが指すのは、シリーズ中で最も高い知能を持つ 31B Dense モデルです。
- 特徴: 前世代(Gemma 2 27B)を大きく上回る推論能力を持ち、特に論理的思考や複雑な指示の遂行に長けています。
- 注意点: 動作には最低でも16GB以上のVRAM(または統合メモリ)が推奨されるため、一般的なビジネスPCでは動作が重くなる可能性があります。
2. gemma4:e4b (Effective 4B)
「デスクトップやノートPCで快適に動く最高峰の小型モデル」として設計されています。
- 特徴: ネイティブで音声入力をサポートしており、文字起こしや音声の文脈理解が可能です。4.5Bというサイズながら、前世代の9Bクラスに匹敵する性能を効率的に叩き出します。
- 用途: 日常的なアシスタント、文書要約、ローカルでのマルチモーダル処理に最適です。
3. gemma4:e2b (Effective 2B)
極限まで効率化された、シリーズ最小のモデルです。
- 特徴: 圧倒的な推論スピードと低消費電力を誇ります。メモリ消費が非常に少ないため、バックグラウンドで常時稼働させたり、古いPCやスマホ上で動作させたりするのに適しています。
- 用途: リアルタイム翻訳、シンプルなタスクの自動化、音声対話インターフェースなど。
選定のヒント
お使いのハードウェア(MacのM2/M3チップや、NVIDIA GPUのメモリ容量)に合わせて選んでみてください。
- 「とにかく賢いモデルを使いたい」 なら →
gemma4:latest - 「ノートPCでサクサク、音声や画像も扱いたい」 なら →
gemma4:e4b - 「メモリを節約したい、レスポンス速度を最優先したい」 なら →
gemma4:e2b


コメント