Amazon Bedrock完全ガイド2026

【2026年最新】Amazon Bedrock完全ガイド|とは何か・料金・使い方・始め方を徹底解説

「AWS上で生成AIを使いたいけど、どこから始めればいいかわからない」——そんな声をよく耳にします。

Amazon Bedrock(アマゾン ベッドロック)は、AWSが提供する生成AIのフルマネージドサービスです。Claude・Llama・Amazon Nova など複数の基盤モデル(Foundation Model)を1つのAPIで利用でき、企業グレードのセキュリティを保ちながらAIアプリを構築できます。

2026年現在、RAGや自律エージェントを手軽に実装できる機能が整備され、国内でも導入事例が急増しています。この記事では、Bedrockの概要から料金・始め方・実践的な使い方まで、すべてを一冊で解説します。

この記事でわかること

  • Amazon Bedrockとは何か(他サービスとの違い)
  • 利用できる基盤モデルの種類と選び方
  • 料金体系と無料枠の詳細
  • コンソールで今すぐ試す手順(コード不要)
  • RAG・エージェントなど主要機能の仕組み
  • AgentCore(最新機能)の概要
  • ChatGPT API・Azure OpenAI との比較

30秒で結論

  • 複数モデルを1つのAPIで切り替えて使えるのが最大の特徴
  • 入力したデータは学習に使われない(エンタープライズ向けプライバシー保証)
  • 料金は完全従量課金。Claude Sonnet 4.6 は入力 $3.00/1M トークン、最安の Nova Micro は $0.04/1M トークン
  • コンソールの「Playgrounds」からコード不要で今日から試せる
  • RAG・エージェント・Guardrailsなどの周辺機能が充実しており、企業のAIシステム構築に最適

Amazon Bedrockとは?

Amazon Bedrockの概要図

Amazon Bedrockは、AWSが2023年9月から一般提供を開始した生成AIのマネージドプラットフォームです。

通常、Claude(Anthropic)やLlama(Meta)を使うには各社のAPIに個別に契約する必要があります。Bedrockはこれを一元化し、AWSアカウントひとつで複数の最前線モデルを利用できる「AI総合窓口」として機能します。

ユーザーアプリ
    ↓
Amazon Bedrock API(Converse API)
    ↓
Claude 4.6 / Nova Pro / Llama 4 / Cohere... を自在に切り替え
    ↓
Knowledge Bases(RAG) / Agents / Guardrails

他サービスとの違い

比較項目 ChatGPT API (OpenAI) Amazon Bedrock
利用できるモデル GPTシリーズのみ Claude、Nova、Llama、Cohereなど
データの学習利用 モデル改善に利用される可能性あり 入力データは学習に使用されない
AWS連携 別途実装が必要 S3、Lambda等とネイティブ連携
RAG機能 外部ライブラリが必要 Knowledge Basesとして組み込み済み
エージェント機能 別途構築が必要 Agentsとして組み込み済み
料金体系 月額サブスク or トークン課金 完全従量課金

また、同じAWSの生成AIサービスとして Amazon SageMaker と比較されることもありますが、棲み分けは明確です。

  • Bedrock: APIでモデルを呼び出してアプリを作る(マネージド)
  • SageMaker: モデルを自分でトレーニング・デプロイする(フルコントロール)

初めて生成AIをAWSで使う場合は、Bedrockから始めるのが正解です。

利用できる基盤モデルと特徴

2026年現在、Bedrockで利用できる主要モデルをまとめます。

モデル名 提供会社 主な強み 推奨用途
Claude Opus 4.6 Anthropic 最高峰の論理推論 法務・技術文書の高精度解析
Claude Sonnet 4.6 Anthropic 推論の可視化(Thinking) 業務エージェント・コーディング
Claude 3.5 Haiku Anthropic 速さとコストのバランス 顧客対応チャット
Amazon Nova 2 Pro Amazon 高コスパ・高性能 企業向け標準AI・RAG基盤
Amazon Nova 2 Lite Amazon 超低遅延・マルチモーダル 大量文書処理・動画分析
Amazon Nova 2 Micro Amazon 最安・テキスト特化 分類・ルーティング処理
Llama 4 Scout Meta オープン重みの柔軟性 独自データのファインチューニング
Cohere Command R2 Cohere RAG精度に特化 社内ナレッジ検索

モデルの選び方ガイド

精度最優先なら Claude Sonnet 4.6 または Opus 4.6 を選択。コーディング・法務解析・複雑な推論に強みがあります。

コスト重視なら Nova シリーズが有力です。Nova Micro は Claude Opus 4.6 の約428分の1の単価でシンプルなタスクをこなせます。

日本語文書のRAGなら Cohere Command R2 か Nova Pro が実績豊富です。

import boto3

# Converse APIでモデルを呼び出す例(モデルIDを変えるだけで切り替え可能)
client = boto3.client("bedrock-runtime", region_name="ap-northeast-1")

response = client.converse(
    modelId="anthropic.claude-sonnet-4-6-20260101-v1:0",  # モデルIDを変えるだけ
    messages=[
        {"role": "user", "content": [{"text": "日本語でBedrockの特徴を3つ挙げてください。"}]}
    ]
)
print(response["output"]["message"]["content"][0]["text"])

Amazon Bedrockの料金体系

Amazon Bedrockの料金体系

Bedrockの料金は入力トークン数と出力トークン数に応じた完全従量課金です。月額の基本料金はありません。

主要モデルの料金比較(2026年4月現在)

モデル 入力(1Mトークン) 出力(1Mトークン)
Claude Opus 4.6 $15.00 $75.00
Claude Sonnet 4.6 $3.00 $15.00
Claude 3.5 Haiku $0.25 $1.25
Nova 2 Pro $0.80 $3.20
Nova 2 Lite $0.06 $0.24
Nova 2 Micro $0.04 $0.14
Llama 4 Scout(70B) $0.17 $0.60
Titan Embeddings V2 $0.02

※料金は変動する場合があります。必ずAWSの公式料金ページで最新情報を確認してください。

4つの課金モード

1. オンデマンド(従量課金) 使った分だけ支払う基本モード。PoC段階や不定期利用に最適です。

2. バッチ推論(50%引き) 大量のリクエストをまとめて処理する場合に使用。急ぎでないバッチ処理なら半額になります。

# バッチ推論の例(S3入力ファイル → S3出力)
aws bedrock create-model-invocation-job \
  --model-id anthropic.claude-sonnet-4-6-20260101-v1:0 \
  --input-data-config '{"s3InputDataConfig": {"s3Uri": "s3://my-bucket/input/"}}' \
  --output-data-config '{"s3OutputDataConfig": {"s3Uri": "s3://my-bucket/output/"}}'

3. プロビジョンドスループット 特定量の処理を事前予約することで、スループットを保証。本番環境での安定稼働に向いています。

4. Marketplace モデル サードパーティが提供するカスタムモデルを追加料金で利用。専門分野(医療・法務など)特化のモデルも選べます。

コスト感の目安

100万トークン = 日本語で約50〜80万文字(A4用紙2,000〜3,000枚相当)。

たとえば Claude Sonnet 4.6 で月10万件のチャット対応(1件あたり平均入力500トークン+出力500トークン)を行う場合:

  • 入力: 5,000万トークン × $3.00/1M = $150(約22,500円)
  • 出力: 5,000万トークン × $15.00/1M = $750(約112,500円)
  • 合計: 約13万円/月

Nova 2 Lite を同じ用途に使うと合計約2,000円/月という大差になります。用途に応じたモデル選択がコスト管理の鍵です。

無料枠について

新規AWSアカウントでは、一部モデルについて無料利用枠(Free Tier)が提供されることがあります(期間・量は変動)。正確な無料枠はAWSのFree Tier一覧を参照してください。

Amazon Bedrockの始め方【ステップ別】

ステップ1: AWSアカウントの準備

AWSアカウントがない場合はaws.amazon.comからサインアップします。クレジットカードの登録が必要ですが、無料枠内の利用は課金されません。

ステップ2: モデルアクセスを有効化

AWSマネジメントコンソールにサインインし、Amazon Bedrockを検索→「モデルアクセス」を開き、使いたいモデルにチェックを入れて「アクセスをリクエスト」します。

コンソール > Amazon Bedrock > 基盤モデル > モデルアクセス
→ 使いたいモデルにチェック → 「モデルアクセスを保存」

多くのモデルは即時承認されますが、一部モデルは数時間かかる場合があります。

ステップ3: Playgroundで試す(コード不要)

「Playgrounds > Chat」から任意のモデルを選択し、画面上でチャットをすぐに始められます。初めてBedrockを使う場合は、ここで各モデルの感触をつかむのがおすすめです。

コンソール > Amazon Bedrock > Playgrounds > Chat
→ モデルを選択(例: Claude Sonnet 4.6)
→ プロンプトを入力してテスト

ステップ4: APIで呼び出す

AWS CLIまたはSDKでプログラムから呼び出します。

# boto3(Python)でClaudeを呼び出す基本例
import boto3
import json

client = boto3.client(
    service_name="bedrock-runtime",
    region_name="ap-northeast-1"  # 東京リージョン
)

body = json.dumps({
    "anthropic_version": "bedrock-2023-05-31",
    "max_tokens": 1024,
    "messages": [
        {
            "role": "user",
            "content": "Amazon Bedrockを使うメリットを3つ教えてください。"
        }
    ]
})

response = client.invoke_model(
    body=body,
    modelId="anthropic.claude-sonnet-4-6-20260101-v1:0",
    contentType="application/json",
    accept="application/json"
)

result = json.loads(response.get("body").read())
print(result["content"][0]["text"])

主要機能の詳細

Amazon Bedrockの主要機能

Knowledge Bases(ナレッジベース)— RAGを簡単に実装

社内ドキュメントやFAQをS3に保存し、自動でベクトル化。ユーザーの質問に対して関連するドキュメントを検索しながら回答する仕組みを、コードを最小限に抑えて構築できます。

これがRAG(Retrieval-Augmented Generation)の仕組みです。AIが学習していない自社独自の情報でも、正確に回答できるようになります。

# ナレッジベースへのRAGクエリ例
import boto3

agent_client = boto3.client("bedrock-agent-runtime", region_name="ap-northeast-1")

response = agent_client.retrieve_and_generate(
    input={"text": "製品Aの保証期間は?"},
    retrieveAndGenerateConfiguration={
        "type": "KNOWLEDGE_BASE",
        "knowledgeBaseConfiguration": {
            "knowledgeBaseId": "YOUR_KB_ID",
            "modelArn": "arn:aws:bedrock:ap-northeast-1::foundation-model/anthropic.claude-sonnet-4-6-20260101-v1:0"
        }
    }
)

print(response["output"]["text"])

代表的な活用例:

  • 社内マニュアルに基づくヘルプデスクAI
  • 製品ドキュメントを元にした問い合わせ自動応答
  • 法的書類・契約書の参照型QAシステム

Agents(エージェント)— AIが自律的にタスクを実行

単純な質問応答を超えて、AIが自律的に複数のステップを実行できます。

例えば「○○顧客の最新注文を確認して、返品処理をして、確認メールを送信して」という複合依頼を1度のプロンプトでこなせます。

仕組みとしては:

  1. AIがタスクを分解(Plan)
  2. 必要なAPI・Lambda関数を呼び出す(Act)
  3. 結果を確認してフィードバック(Observe)
  4. 完了するまで繰り返す(Loop)
# Agentを呼び出す例
response = agent_client.invoke_agent(
    agentId="YOUR_AGENT_ID",
    agentAliasId="TSTALIASID",
    sessionId="unique-session-id",
    inputText="先月の売上レポートを集計して、前月比を計算してください。"
)

for event in response["completion"]:
    if "chunk" in event:
        print(event["chunk"]["bytes"].decode("utf-8"), end="")

Guardrails(ガードレール)— 安全なAI利用を強制

有害なコンテンツのフィルタリング、個人情報の自動マスキング、特定トピックの禁止など、AIの出力に制約を設ける機能です。

企業がAIを外部公開する際に、不適切な応答を防ぐために重要です。

  • ヘイトスピーチ・暴力表現のフィルタリング
  • メールアドレス・電話番号などのPII(個人識別情報)を自動マスク
  • 競合他社に関する言及を禁止
  • ハルシネーション(幻覚)検出と拒否

Model Evaluation(モデル評価)

複数モデルを同じプロンプトセットで一括評価し、用途に最適なモデルを定量的に選べる機能です。精度・速度・コストのバランスを客観的に比較できます。

AgentCore(最新機能)

2026年に登場したAmazon Bedrock AgentCoreは、本番環境でのエージェント管理に特化した新機能群です。

主な構成要素:

機能 概要
AgentCore Runtime エージェントの実行環境をマネージド提供
AgentCore Memory セッションをまたいだ長期記憶の管理
AgentCore Evaluations エージェントの応答品質を自動評価
AgentCore Observability エージェントの動作をトレース・監視

AgentCore Evaluationsの料金の目安:

  • ビルトイン評価(trace-level): 約$0.60/1,000件評価
  • カスタム評価: 別途モデル利用料がかかります

本番のAIエージェントシステムを構築・運用する企業に向いた機能です。

東京リージョンでの利用について

Amazon Bedrockの東京リージョン対応

Amazon Bedrockは東京リージョン(ap-northeast-1)で利用可能です。ただし注意点があります。

東京リージョンで直接利用できるモデル(2026年現在):

  • Amazon Nova 2 シリーズ(Micro/Lite/Pro)
  • Anthropic Claude 3.5 Haiku
  • Claude Sonnet 4.6、Opus 4.6
  • Amazon Titan Embeddings

最新モデルやバージニア北部先行モデルの利用: Bedrockにはクロスリージョン推論という仕組みがあり、東京リージョンから自動的にバージニア北部(us-east-1)などにルーティングして最新モデルを利用できます。

# 東京リージョンでクロスリージョン推論を使う場合
# モデルIDのプレフィックスに注意(jp. または us. がつく場合あり)
modelId = "jp.anthropic.claude-opus-4-1-20250805-v1:0"

注意点: モデルIDと利用可能なリージョンは頻繁に変わります。最新情報は必ずAWSの公式リージョン対応表を確認してください。

ChatGPT API・Azure OpenAIとの比較

比較項目 Amazon Bedrock OpenAI API Azure OpenAI
モデルの種類 Claude、Nova、Llama等(マルチ) GPTシリーズのみ GPTシリーズ中心
AWS連携 ネイティブ 別途構築 別途構築
RAG機能 Knowledge Basesが組み込み済み 要ライブラリ Azure AI Searchで別途構築
エージェント Agentsが組み込み済み 要実装 要実装
データの学習 非学習保証 規約依存 非学習保証
料金体系 従量課金のみ 従量課金(一部上限設定可) コミットメント割引あり
日本データセンター 東京リージョンあり 日本拠点なし 東日本・西日本あり
向いているケース AWSを既に使用している企業 個人・小規模チーム Microsoft 365環境の企業

AWSを既に使っている企業にとって、Bedrockは最もシームレスな選択です。 S3・Lambda・EC2・CloudWatchとの統合がネイティブで済み、権限管理もIAMで一元化できます。

既存システムがAzureやGCPベースの場合は、それぞれのマネージドAIサービスも検討の価値があります。

よくある質問

Q. Amazon Bedrockは個人でも使えますか?

使えます。AWSアカウントを持っていれば個人利用も可能です。ただし、月額基本料金はなく完全従量課金のため、コンソールのPlaygroundで少量試す場合も料金が発生します(1回のチャット数円〜数十円程度)。無料枠の範囲内で試すことも可能です。

Q. 入力したデータはAIの学習に使われますか?

使われません。AWSのドキュメントによると、Amazon Bedrockに入力したプロンプトや生成結果は、モデルの改善に利用されないことが明記されています。これはエンタープライズ利用において重要な差別化ポイントです。

Q. 東京リージョンで最新モデルは使えますか?

クロスリージョン推論を使えば、東京リージョンから最新モデルにアクセスできます。リクエストがバージニア北部などのリージョンに自動ルーティングされるため、利用者側では意識せずに使えます。ただしレイテンシはわずかに増加します。

Q. 日本語の処理精度は問題ありませんか?

Claude Sonnet 4.6やNova ProはJLLMベンチマークで高いスコアを記録しており、日本語の精度は実用レベルに達しています。ただし日本語は英語と比べてトークン消費量が約1.5〜3倍になる傾向があり、コスト計算時は余裕を持った見積もりを推奨します。

Q. Amazon SageMakerとの違いは何ですか?

Bedrockは「既存の基盤モデルをAPIで呼び出してアプリを作る」サービスです。SageMakerは「自分でモデルをトレーニング・チューニング・デプロイする」フルコントロール型のMLプラットフォームです。まず生成AIを試したいならBedrock、独自モデル開発が目的ならSageMakerが向いています。

Q. AgentCoreはいくらかかりますか?

AgentCore Evaluationsの料金はビルトイン評価1,000件あたり約$0.60が目安です。AgentCore RuntimeやMemoryの料金は使用量に応じて異なります。詳細はAgentCore料金ページを参照してください。