[AWS]Bedrockで利用可能なLLMモデル一覧

ツール

Amazon BedrockでLLMエンジンを変更する手順と、利用可能な主要モデルの詳細を解説。コンソールまたはAPIを介してモデルを選び、コンテンツに合わせて最適なAIを使い分ける方法を紹介します。Titan、Claude、Llamaなど各モデルの特徴やファインチューニングの可否も一覧化しております。

BedrockでLLMエンジンの変更手順

Amazon Bedrockで利用するLLM(基盤モデル)を変更する手順は、主にAWSマネジメントコンソール上で行う方法と、APIを介してプログラム的に行う方法がある。

  1. AWSマネジメントコンソールからの変更
    • AWSアカウントにサインインし、Amazon Bedrockのコンソールに移動する。
    • ナビゲーションペインから「プレイグラウンド」を選択し、「テキスト」または「チャット」を選択する。
    • 画面右上の「モデルの選択」をクリックする。
    • ドロップダウンメニューから、利用したいモデルプロバイダー(Anthropic、Amazonなど)と、そのプロバイダーが提供する特定のモデル(Claude 3 Sonnet、Titan Text Expressなど)を選択する。
    • 適用」をクリックすると、選択したモデルがプレイグラウンドにロードされる。
    • 注意: 使用したいモデルがリストに表示されない場合、事前に「モデルアクセス」ページでそのモデルへのアクセスをリクエストする必要がある。
  2. APIを介した変更
    • AWS SDK(Boto3 for Pythonなど)を使用して、プログラム的にモデルを呼び出す場合、APIリクエストのペイロード内でmodelIdパラメータを指定する。
    • modelIdには、使用したいモデルのARN(Amazon Resource Name)またはエイリアス(例:arn:aws:bedrock:us-east-1::foundation-model/anthropic.claude-3-sonnet-v1:0)を指定する。
    • 例えば、PythonのBoto3では、invoke_modelメソッドのmodelId引数に目的のモデルIDを渡すことで、動的にモデルを変更できる。

Bedrockで利用可能なLLMモデル一覧と特徴

Amazon Bedrockで利用可能な主要なLLMモデルの特徴、サイズ、および追加学習の可否をリストアップする。

モデルプロバイダーモデル名特徴・用途モデルサイズ / バージョン追加学習(ファインチューニング)の可否
AmazonTitan Text Express汎用的なタスク(テキスト生成、要約、Q&A、チャット)。コストとパフォーマンスのバランスが良い。Express、Lite、Premier (各バージョンの詳細サイズは非公開)可能
Titan Text Lite汎用タスク向け。Expressよりも高速かつ低コスト。短文の要約やテキスト生成に適している。Lite可能
Titan Image Generatorテキストから画像を生成するモデル。G1可能
Titan Multimodalテキストと画像のマルチモーダルタスクに対応。画像への質問応答やキャプション生成が可能。不可
(現時点では)
AnthropicClaude 3 Opus最も強力なモデル。複雑な推論、コード生成、多言語タスクに優れる。研究開発や高度なタスク向け。Opus不可
(現時点では)
Claude 3 Sonnetパフォーマンスとコストのバランスが良いモデル。大規模なワークロードや、幅広いエンタープライズ用途に適している。Sonnet不可
(現時点では)
Claude 3 Haiku最速かつ最もコスト効率の高いモデル。迅速な応答が求められるタスクや、大量のデータ処理に適している。Haiku可能
MetaLlama 3高度な推論能力を持つオープンウェイトモデル。テキスト分析、感情分析、翻訳など多様な用途に対応。Llama 3 8B, Llama 3 70B可能
Llama 2Llama 3の以前のバージョン。チャットボットやコンテンツ生成など、幅広いタスクで利用可能。Llama 2 13B Chat, Llama 2 70B Chat可能
Mistral AIMistral Large高度な推論、多言語(日本語を含む)対応、複雑な多段階の指示追従に優れる。Large不可
Mixtral 8x7B専門家混合モデル(Mixture-of-Experts)。大規模なデータ処理と高速な推論を両立。8x7B不可
Mistral 7B小規模で高速なモデル。軽量なタスクやコストを抑えたい場合に適している。7B不可
CohereCommand R+RAG(検索拡張生成)やツール利用に最適化。長文のコンテキスト処理、多言語対応に優れる。R+不可
Command RR+の軽量版。同様にRAGや大規模なプロダクションワークロード向け。R不可
Command Lightコスト効率の高いモデル。テキスト生成や要約など、基本的なタスクに利用可能。Light可能
AI21 LabsJurassic-2 Ultra高品質なテキスト生成、要約、Q&A。多言語に対応。Ultra
(サイズ非公開)
不可
(現時点では)
Jurassic-2 MidUltraよりも高速で低コスト。Mid
(サイズ非公開)
不可
(現時点では)

補足事項:

  • モデルのサイズ(パラメータ数)は、多くのプロバイダーが正確な数値を公開していないため、「モデルサイズ」は一般的に公開されているバージョン名(例:8B, 70B)で表記している。
  • ファインチューニングの可否は、Bedrockの公式ドキュメントでサポートされているモデルに基づいている。機能は随時アップデートされるため、最新の情報はAWSの公式発表を確認する必要がある。
  • 追加学習が可能なモデルの場合、多くはプロンプト応答のペアを含むJSONL形式のデータセットが必要となる。

コメント

タイトルとURLをコピーしました