Ollama

TIPS

[Ollama]モデル管理・運用

Ollamaをインストールし、モデルの保存先も大容量ディスクへ移したなら、次は「どのモデルをどう管理するか」が重要になります。LLM(大規模言語モデル)は1つで数GB、大きいものだと数十GBを消費します。無計画にダウンロードすると、せっかく...
ツール

[aichat]CLIでollama連携

aichatはRust製で非常に軽量かつ高速なツールです。macOS、Linux、Windowsのいずれでも簡単に導入できます。特にOllamaをバックエンドにする場合の設定まで含めて、ステップバイステップで解説します。1. aichatの...
TIPS

[Ollama]バックエンドとして利用できる有力なツール

ターミナルから手軽にLLMを呼び出せるツールで、Ollamaをバックエンドとして利用できる有力なツールはいくつか存在します。2026年現在、特に人気があり、機能性が高いものを用途別に紹介します。1. aichat (オールラウンダー)gem...
コマンド

[ollama]2026年版コーディングモデル比較表

コーディングに特化したモデル、いわゆる「Coder系モデル」は、一般的な対話モデルよりもプログラミング言語の構文、アルゴリズム、そして何より「文脈を理解したデバッグ能力」が格段に高いのが特徴です。2026年現在、Ubuntu+Ollama環...
TIPS

[Ubuntu]Ollamaインストール

Ubuntu で LLM(大規模言語モデル)をローカル実行するなら、Ollama(オラマ) が最も簡単で強力な選択肢です。以前は環境構築だけで日が暮れることもありましたが、2026年現在、Ubuntu での導入は驚くほどシンプルになっていま...