[aichat]CLIでollama連携

ツール

aichatはRust製で非常に軽量かつ高速なツールです。
macOS、Linux、Windowsのいずれでも簡単に導入できます。

特にOllamaをバックエンドにする場合の設定まで含めて、ステップバイステップで解説します。

1. aichatのインストール方法

GitHub - sigoden/aichat: All-in-one LLM CLI tool featuring Shell Assistant, Chat-REPL, RAG, AI Tools & Agents, with access to OpenAI, Claude, Gemini, Ollama, Groq, and more.
All-in-one LLM CLI tool featuring Shell Assistant, Chat-REPL, RAG, AI Tools & Agents, with access to OpenAI, Claude, Gem...

お使いの環境に合わせて、以下のいずれかのコマンドを実行してください。

macOS (Homebrewを使用)

brew install aichat

Windows (PowerShellを使用)

powershell -ExecutionPolicy ByPass -Command "irm https://github.com/sigoden/aichat/releases/latest/download/aichat-installer.ps1 | iex"

※または、scoop install aichat でもインストール可能です。

Rust環境がある場合 (Cargoを使用)

cargo install aichat

cargoが古い場合はコンパイルエラーとなるので

# 1. 適切なバイナリをダウンロード (v0.30.0)
curl -LO https://github.com/sigoden/aichat/releases/download/v0.30.0/aichat-v0.30.0-x86_64-unknown-linux-musl.tar.gz

# 2. 圧縮ファイルを解凍
tar -xzf aichat-v0.30.0-x86_64-unknown-linux-musl.tar.gz

# 3. 実行権限を付与してパスの通った場所へ移動
sudo mv aichat /usr/local/bin/

# 4. バージョン確認(これで動けば完了です!)
aichat --version

2. 初期設定(Ollamaとの連携)

インストールが完了したら、一度 aichat を起動して設定ファイルを作成させます。

  1. ターミナルで aichat と入力して実行します。
  2. 初回起動時に設定ファイルのパスが表示されます(通常は ~/.config/aichat/config.yaml)。
  3. そのファイルをエディタ(VimやVS Codeなど)で開き、Ollamaを使うための設定を追記します。

設定例 (config.yaml)

# 設定ファイル用のディレクトリを作成
mkdir -p ~/.config/aichat

# 設定ファイルを作成・編集
cat <<EOF > ~/.config/aichat/config.yaml
clients:
  - type: openai-compatible
    name: local
    api_base: http://127.0.0.1:11434/v1
    api_key: "ollama"
    models:
      - name: gemma3:latest

model: local:gemma3:latest
EOF

以下をコピーして、clients セクションに追加または書き換えてください。

3. 基本的な使い方

設定が終われば、すぐにターミナルからAIを呼び出せます。

インタラクティブモード

そのまま aichat と打つと、対話形式でチャットが始まります。

aichat
> こんにちは、今日の調子はどう?

ワンライナー(コマンド引数)

質問を直接投げて結果を受け取ります。

aichat "RustでHello Worldを書くコードを教えて"

パイプ処理(これがCLIの醍醐味!)

他のコマンドの結果をAIに渡して処理させます。

cat error.log | aichat "このログのエラー原因を分析して"

4. 知っておくと便利なヒント

  • モデルの切り替え: aichat -m ollama:phi3 のように -m フラグを使うことで、実行時にモデルを一時的に変更できます。
  • 役割(Role)の設定: ~/.config/aichat/roles.yaml に特定のプロンプト(例:プログラミング講師、翻訳家など)を保存しておき、aichat -r translator "こんにちは" のように呼び出すことができます。

[!TIP]

Ollama側でモデルをプルしておくのを忘れずに!

aichat で指定したモデル(例:llama3.3)は、事前に ollama pull llama3.3 でローカルにダウンロードしておく必要があります。

これでターミナルからローカルLLMを自在に操れるようになります。ぜひ試してみてください!

コメント

タイトルとURLをコピーしました