[Ubuntu]Ollamaインストール

TIPS

Ubuntu で LLM(大規模言語モデル)をローカル実行するなら、Ollama(オラマ) が最も簡単で強力な選択肢です。以前は環境構築だけで日が暮れることもありましたが、2026年現在、Ubuntu での導入は驚くほどシンプルになっています。

Ubuntu に Ollama をインストールし、最新の LLM(Llama 3.3 や Qwen 3 など)を動かすまでの全手順を解説します。

「クラウドAIに課金するのも、データを送るのも抵抗がある…」という方へ。

Ollama を使えば、あなたの Ubuntu マシンがプライベートな AI サーバーに変わります。

1. 事前準備:システムの更新と確認

まずは、システムを最新の状態にし、インストールに必要な curl が入っているか確認しましょう。

sudo apt update && sudo apt upgrade -y
sudo apt install -y curl

GPU の確認(任意)

AI の処理を高速化するには、NVIDIA または AMD の GPU があると理想的です。

  • NVIDIA ユーザー: 最新のドライバと NVIDIA Container Toolkit がインストールされていることを確認してください。
  • AMD ユーザー: ROCm がインストールされていれば、Ollama が自動で検知してくれます。

2. Ollama のインストール

公式サイトが提供する「魔法の一行コマンド」を実行します。これにより、バイナリのダウンロード、依存関係の解決、システムサービス(systemd)への登録がすべて自動で行われます。

curl -fsSL https://ollama.com/install.sh | sh

[!TIP]

インストールが終わったら、以下のコマンドで正しく導入されたか確認しましょう。

ollama --version

3. 最初の LLM をダウンロードして実行する

インストールが完了したら、さっそくモデルを動かしてみましょう。

ここでは、2026年現在バランスが良いとされる Llama 3.3(または軽量な Qwen 3)を例にします。

# Llama 3.3 を実行(初回は数GBのダウンロードが始まります)
ollama run llama3.3

コマンドを実行すると対話モード(チャット形式)になります。「こんにちは!Ubuntuでのセットアップに成功したよ」と話しかけてみてください。

4. よく使う管理コマンド

Ollama を使いこなすための必須コマンド集です。

操作コマンド
モデルの一覧を表示ollama list
特定のモデルをダウンロードのみ行うollama pull llama3.3
モデルを削除して容量を空けるollama rm llama3.3
稼働中のモデルを確認ollama ps
サービスの再起動sudo systemctl restart ollama

5. Web UI でリッチに使う(オプション)

ターミナルでの会話も渋くて良いですが、ChatGPT のような UI で操作したいなら Open WebUI がおすすめです。Docker が入っていれば一瞬で起動できます。

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

実行後、ブラウザで http://localhost:3000 にアクセスすれば、グラフィカルな画面で AI と会話できます。

トラブルシューティング

Q: GPU が認識されず、CPU で動いている(遅い)

A: NVIDIA の場合は nvidia-smi でドライバが正常か確認してください。また、Ollama のサービスを一度再起動すると認識されることが多いです。

sudo systemctl restart ollama

Q: モデルのダウンロードが遅い

A: Ollama のサーバーは非常に高速ですが、数 GB 単位のデータが動きます。安定したインターネット環境で実行してください。

まとめ

これであなたの Ubuntu は、いつでも LLM を呼び出せる最強の開発環境になりました。

Open source の LLM は日々進化しています。ollama pull で新しいモデルをどんどん試して、自分好みの AI を見つけてください!

コメント

タイトルとURLをコピーしました