Amazon BedrockでLLMエンジンを変更する手順と、利用可能な主要モデルの詳細を解説。コンソールまたはAPIを介してモデルを選び、コンテンツに合わせて最適なAIを使い分ける方法を紹介します。Titan、Claude、Llamaなど各モデルの特徴やファインチューニングの可否も一覧化しております。
BedrockでLLMエンジンの変更手順
Amazon Bedrockで利用するLLM(基盤モデル)を変更する手順は、主にAWSマネジメントコンソール上で行う方法と、APIを介してプログラム的に行う方法がある。
- AWSマネジメントコンソールからの変更
- AWSアカウントにサインインし、Amazon Bedrockのコンソールに移動する。
- ナビゲーションペインから「プレイグラウンド」を選択し、「テキスト」または「チャット」を選択する。
- 画面右上の「モデルの選択」をクリックする。
- ドロップダウンメニューから、利用したいモデルプロバイダー(Anthropic、Amazonなど)と、そのプロバイダーが提供する特定のモデル(Claude 3 Sonnet、Titan Text Expressなど)を選択する。
- 「適用」をクリックすると、選択したモデルがプレイグラウンドにロードされる。
- 注意: 使用したいモデルがリストに表示されない場合、事前に「モデルアクセス」ページでそのモデルへのアクセスをリクエストする必要がある。
- APIを介した変更
- AWS SDK(Boto3 for Pythonなど)を使用して、プログラム的にモデルを呼び出す場合、APIリクエストのペイロード内で
modelId
パラメータを指定する。 modelId
には、使用したいモデルのARN(Amazon Resource Name)またはエイリアス(例:arn:aws:bedrock:us-east-1::foundation-model/anthropic.claude-3-sonnet-v1:0
)を指定する。- 例えば、PythonのBoto3では、
invoke_model
メソッドのmodelId
引数に目的のモデルIDを渡すことで、動的にモデルを変更できる。
- AWS SDK(Boto3 for Pythonなど)を使用して、プログラム的にモデルを呼び出す場合、APIリクエストのペイロード内で
Bedrockで利用可能なLLMモデル一覧と特徴
Amazon Bedrockで利用可能な主要なLLMモデルの特徴、サイズ、および追加学習の可否をリストアップする。
モデルプロバイダー | モデル名 | 特徴・用途 | モデルサイズ / バージョン | 追加学習(ファインチューニング)の可否 |
Amazon | Titan Text Express | 汎用的なタスク(テキスト生成、要約、Q&A、チャット)。コストとパフォーマンスのバランスが良い。 | Express、Lite、Premier (各バージョンの詳細サイズは非公開) | 可能 |
Titan Text Lite | 汎用タスク向け。Expressよりも高速かつ低コスト。短文の要約やテキスト生成に適している。 | Lite | 可能 | |
Titan Image Generator | テキストから画像を生成するモデル。 | G1 | 可能 | |
Titan Multimodal | テキストと画像のマルチモーダルタスクに対応。画像への質問応答やキャプション生成が可能。 | – | 不可 (現時点では) | |
Anthropic | Claude 3 Opus | 最も強力なモデル。複雑な推論、コード生成、多言語タスクに優れる。研究開発や高度なタスク向け。 | Opus | 不可 (現時点では) |
Claude 3 Sonnet | パフォーマンスとコストのバランスが良いモデル。大規模なワークロードや、幅広いエンタープライズ用途に適している。 | Sonnet | 不可 (現時点では) | |
Claude 3 Haiku | 最速かつ最もコスト効率の高いモデル。迅速な応答が求められるタスクや、大量のデータ処理に適している。 | Haiku | 可能 | |
Meta | Llama 3 | 高度な推論能力を持つオープンウェイトモデル。テキスト分析、感情分析、翻訳など多様な用途に対応。 | Llama 3 8B, Llama 3 70B | 可能 |
Llama 2 | Llama 3の以前のバージョン。チャットボットやコンテンツ生成など、幅広いタスクで利用可能。 | Llama 2 13B Chat, Llama 2 70B Chat | 可能 | |
Mistral AI | Mistral Large | 高度な推論、多言語(日本語を含む)対応、複雑な多段階の指示追従に優れる。 | Large | 不可 |
Mixtral 8x7B | 専門家混合モデル(Mixture-of-Experts)。大規模なデータ処理と高速な推論を両立。 | 8x7B | 不可 | |
Mistral 7B | 小規模で高速なモデル。軽量なタスクやコストを抑えたい場合に適している。 | 7B | 不可 | |
Cohere | Command R+ | RAG(検索拡張生成)やツール利用に最適化。長文のコンテキスト処理、多言語対応に優れる。 | R+ | 不可 |
Command R | R+の軽量版。同様にRAGや大規模なプロダクションワークロード向け。 | R | 不可 | |
Command Light | コスト効率の高いモデル。テキスト生成や要約など、基本的なタスクに利用可能。 | Light | 可能 | |
AI21 Labs | Jurassic-2 Ultra | 高品質なテキスト生成、要約、Q&A。多言語に対応。 | Ultra (サイズ非公開) | 不可 (現時点では) |
Jurassic-2 Mid | Ultraよりも高速で低コスト。 | Mid (サイズ非公開) | 不可 (現時点では) |
補足事項:
- モデルのサイズ(パラメータ数)は、多くのプロバイダーが正確な数値を公開していないため、「モデルサイズ」は一般的に公開されているバージョン名(例:8B, 70B)で表記している。
- ファインチューニングの可否は、Bedrockの公式ドキュメントでサポートされているモデルに基づいている。機能は随時アップデートされるため、最新の情報はAWSの公式発表を確認する必要がある。
- 追加学習が可能なモデルの場合、多くは
プロンプト
と応答
のペアを含むJSONL形式のデータセットが必要となる。
コメント