Ubuntu で LLM(大規模言語モデル)をローカル実行するなら、Ollama(オラマ) が最も簡単で強力な選択肢です。以前は環境構築だけで日が暮れることもありましたが、2026年現在、Ubuntu での導入は驚くほどシンプルになっています。
Ubuntu に Ollama をインストールし、最新の LLM(Llama 3.3 や Qwen 3 など)を動かすまでの全手順を解説します。
「クラウドAIに課金するのも、データを送るのも抵抗がある…」という方へ。
Ollama を使えば、あなたの Ubuntu マシンがプライベートな AI サーバーに変わります。
1. 事前準備:システムの更新と確認
まずは、システムを最新の状態にし、インストールに必要な curl が入っているか確認しましょう。
sudo apt update && sudo apt upgrade -y
sudo apt install -y curl
GPU の確認(任意)
AI の処理を高速化するには、NVIDIA または AMD の GPU があると理想的です。
- NVIDIA ユーザー: 最新のドライバと NVIDIA Container Toolkit がインストールされていることを確認してください。
- AMD ユーザー: ROCm がインストールされていれば、Ollama が自動で検知してくれます。
2. Ollama のインストール
公式サイトが提供する「魔法の一行コマンド」を実行します。これにより、バイナリのダウンロード、依存関係の解決、システムサービス(systemd)への登録がすべて自動で行われます。
curl -fsSL https://ollama.com/install.sh | sh
[!TIP]
インストールが終わったら、以下のコマンドで正しく導入されたか確認しましょう。
ollama --version
3. 最初の LLM をダウンロードして実行する
インストールが完了したら、さっそくモデルを動かしてみましょう。
ここでは、2026年現在バランスが良いとされる Llama 3.3(または軽量な Qwen 3)を例にします。
# Llama 3.3 を実行(初回は数GBのダウンロードが始まります)
ollama run llama3.3
コマンドを実行すると対話モード(チャット形式)になります。「こんにちは!Ubuntuでのセットアップに成功したよ」と話しかけてみてください。
4. よく使う管理コマンド
Ollama を使いこなすための必須コマンド集です。
| 操作 | コマンド |
| モデルの一覧を表示 | ollama list |
| 特定のモデルをダウンロードのみ行う | ollama pull llama3.3 |
| モデルを削除して容量を空ける | ollama rm llama3.3 |
| 稼働中のモデルを確認 | ollama ps |
| サービスの再起動 | sudo systemctl restart ollama |
5. Web UI でリッチに使う(オプション)
ターミナルでの会話も渋くて良いですが、ChatGPT のような UI で操作したいなら Open WebUI がおすすめです。Docker が入っていれば一瞬で起動できます。
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
実行後、ブラウザで http://localhost:3000 にアクセスすれば、グラフィカルな画面で AI と会話できます。
トラブルシューティング
Q: GPU が認識されず、CPU で動いている(遅い)
A: NVIDIA の場合は nvidia-smi でドライバが正常か確認してください。また、Ollama のサービスを一度再起動すると認識されることが多いです。
sudo systemctl restart ollama
Q: モデルのダウンロードが遅い
A: Ollama のサーバーは非常に高速ですが、数 GB 単位のデータが動きます。安定したインターネット環境で実行してください。
まとめ
これであなたの Ubuntu は、いつでも LLM を呼び出せる最強の開発環境になりました。
Open source の LLM は日々進化しています。ollama pull で新しいモデルをどんどん試して、自分好みの AI を見つけてください!


コメント