import { ArticleImage } from "@/components/ArticleImage";

【2026年最新】Cohere Command Rの使い方・料金完全ガイド|APIキー取得からRAG実装まで

ChatGPTClaudeじゃなく、自社データに特化したLLMが欲しい」——そんなニーズに応えるのがCohereのCommand Rシリーズです。RAG(検索拡張生成)への特化、エンタープライズ向けのデータプライバシー、そしてコストパフォーマンスに優れたモデルラインナップで、開発者・企業から注目を集めています。

この記事では、Cohere Command Rの全モデルを料金・性能で整理し、APIキーの取得からPythonでの実装まで一通り解説します。

この記事でわかること

  • Cohere Command Rシリーズ(R7B / R / R+ / Command A)の違いと料金
  • 無料トライアルでAPIを試す手順
  • PythonとJavaScriptでの基本実装例
  • RAG・Embed・Rerankの組み合わせ方
  • ChatGPT API・Claude APIとのコスト比較
  • 向いているユースケースと向かないケース

30秒で結論

  • 無料で試す → 試用版APIキーを取得すれば制限付きで即日スタート可能。クレジットカード不要
  • コスト重視 → Command R7B(入力$0.04/100万トークン)が最安。開発・テスト用に最適
  • 本番RAG → Command R(入力$0.15/100万トークン)が性能とコストのバランスで最有力
  • 最高品質 → Command R+(入力$2.50/100万トークン)。複雑な推論・長文処理に
  • Embed + Rerank → CohereはLLM単体より「検索精度を上げるミドルウェア」として使う方が強みが出る

Cohere Command Rとは?なぜ注目されているのか

Cohereは2019年創業のカナダ発AIスタートアップで、OpenAIやAnthropicとは異なる方向性を選択しました。エンタープライズ向けLLMに特化し、チャットボットではなく「企業の業務データを活用するAIインフラ」として設計されています。

Command Rシリーズの最大の特徴は3点です。

① RAGへの最適化 社内ドキュメント・ナレッジベースを参照しながら回答を生成する「検索拡張生成(RAG)」に特化して設計されています。引用付きの回答生成、ドキュメントグラウンディングなどの機能が標準搭載されています。

② Embed + Rerankとの連携 CohereはLLMだけでなく、テキストのベクトル化(Embed)と検索結果の再ランク付け(Rerank)のモデルも提供しています。この3点セットを組み合わせると、GPT-4を使った検索システムより高精度なRAGパイプラインが構築できるケースが多いです。

③ データプライバシー CohereのAPIはデフォルトでユーザーデータをモデルの学習に使いません。オンプレミスやプライベートクラウドへのデプロイにも対応しており、金融・医療・法務など規制産業での採用が進んでいます。

Command Rシリーズ モデル一覧

モデル リリース 特徴 コンテキスト
Command R7B 2024年12月 最軽量・最安値。開発・テスト向け 128K
Command R (08-2024) 2024年8月 RAG・ツールユースに最適化。バランス型 128K
Command R+ (08-2024) 2024年8月 最高性能。複雑な推論・長文処理 128K
Command A 2025年〜 最新エンタープライズエージェント向け 256K

料金プラン完全解説【2026年4月最新】

Cohere APIはトークン単位の従量課金制です。入力(プロンプト)と出力(生成テキスト)で料金が異なり、100万トークン(1M tokens)あたりの単価で計算されます。日本語は英語より1トークンあたりの文字数が少ないため、実際のコストは英語よりやや高めになります。

Commandモデル料金(生成API)

モデル 入力料金 (/1M tokens) 出力料金 (/1M tokens)
Command R7B $0.04(約¥6) $0.15(約¥23)
Command R (08-2024) $0.15(約¥23) $0.60(約¥90)
Command R+ (08-2024) $2.50(約¥375) $10.00(約¥1,500)

Embed・Rerankモデル料金

モデル 料金
Embed 4(テキストベクトル化) $0.12/100万トークン
Rerank 3.5(検索結果再ランク) $2.00/1,000リクエスト

無料トライアル

CohereはAPIキー発行後すぐに使えるトライアルプランを提供しています。クレジットカード登録不要でAPIキーを取得でき、レートリミット付きでほぼすべての機能を試せます(商用利用は本番用キーが必要)。

コスト試算例

100万文字(日本語)の社内ドキュメントをRAGで処理するケースを試算します。

テキスト量: 1,000,000文字 ≈ 500,000トークン(日本語換算)
Embed 4でベクトル化: 500,000 / 1,000,000 × $0.12 = $0.06(約¥9)
Command R で回答生成(1,000クエリ × 500トークン入力 + 500トークン出力):
  入力: 500,000 / 1,000,000 × $0.15 = $0.075
  出力: 500,000 / 1,000,000 × $0.60 = $0.30
合計: 約$0.44(約¥66)

ドキュメントの規模が大きくなっても、Embed処理は1回だけで済むため、運用コストは想定より低く抑えられます。

APIキーの取得手順

APIキーの取得は5分もあれば完了します。

  1. Cohere Dashboard にアクセス
  2. Googleアカウントまたはメールアドレスで無料登録
  3. ダッシュボードの「API Keys」タブを開く
  4. Trial key」が自動で発行済み(すぐに使える)
  5. 本番利用の場合は「Create Production Key」をクリック→クレジットカード登録

発行されたAPIキーは環境変数として管理するのが安全です。

# .envファイルに保存(コードに直書きしない)
echo "COHERE_API_KEY=your-api-key-here" >> .env

Pythonで始めるCommand R実装

インストール

pip install cohere

基本的なテキスト生成

import cohere
import os

co = cohere.ClientV2(api_key=os.environ["COHERE_API_KEY"])

response = co.chat(
    model="command-r-08-2024",
    messages=[
        {
            "role": "user",
            "content": "社内の経費精算フローについて教えてください。",
        }
    ],
)

print(response.message.content[0].text)

RAG(ドキュメントグラウンディング)

Command Rの真価が発揮されるのがRAGです。documentsパラメータにドキュメントを渡すだけで、引用付きの回答を生成できます。

import cohere
import os

co = cohere.ClientV2(api_key=os.environ["COHERE_API_KEY"])

documents = [
    {
        "id": "doc-1",
        "data": {
            "title": "経費精算規程",
            "body": "交通費は実費精算とし、上限は1日5,000円とします。領収書は必須。申請期限は翌月10日まで。",
        },
    },
    {
        "id": "doc-2",
        "data": {
            "title": "出張規程",
            "body": "出張の場合、日当は1日3,000円。宿泊費の上限は東京・大阪15,000円、それ以外10,000円。",
        },
    },
]

response = co.chat(
    model="command-r-08-2024",
    messages=[{"role": "user", "content": "出張時の経費はどれくらいまで申請できますか?"}],
    documents=documents,
)

print(response.message.content[0].text)
# 引用情報
for citation in response.message.citations or []:
    print(f"引用元: {citation.sources}")

Embed + Rerankを組み合わせたRAGパイプライン

import cohere
import numpy as np
import os

co = cohere.Client(api_key=os.environ["COHERE_API_KEY"])

# 社内ドキュメントのサンプル
documents = [
    "経費精算は翌月10日までに申請してください。",
    "出張日当は1日3,000円です。",
    "宿泊費の上限は東京15,000円、地方10,000円です。",
    "交通費は実費精算。新幹線はグリーン車禁止。",
]

# Step1: ドキュメントをベクトル化
embed_response = co.embed(
    texts=documents,
    model="embed-v4.0",
    input_type="search_document",
    embedding_types=["float"],
)
doc_embeddings = embed_response.embeddings.float_

# Step2: クエリをベクトル化
query = "出張の宿泊費はいくらまでOKですか?"
query_embed = co.embed(
    texts=[query],
    model="embed-v4.0",
    input_type="search_query",
    embedding_types=["float"],
).embeddings.float_[0]

# Step3: コサイン類似度で上位候補を取得
scores = np.dot(doc_embeddings, query_embed)
top_indices = np.argsort(scores)[::-1][:3]
top_docs = [documents[i] for i in top_indices]

# Step4: Rerankで精度を上げる
rerank_response = co.rerank(
    query=query,
    documents=top_docs,
    model="rerank-v3.5",
    top_n=2,
)
best_docs = [r.document.text for r in rerank_response.results]

print("最も関連するドキュメント:")
for doc in best_docs:
    print(f"  - {doc}")

このパターンがCohereの最も強力な使い方です。単にLLMに質問するより、Embed + Rerank + Command Rの三段構えにすると社内ナレッジの検索精度が大幅に向上します。

ChatGPT API・Claude APIとの比較

主要LLM APIと料金・特性を比較します。

項目 Cohere Command R Cohere Command R+ ChatGPT (GPT-5-mini) Claude Sonnet
入力料金 /1M tokens $0.15 $2.50 ~$0.40 ~$3.00
出力料金 /1M tokens $0.60 $10.00 ~$1.60 ~$15.00
コンテキスト長 128K 128K 128K 200K
RAG特化機能 ◎ネイティブ対応 ◎ネイティブ対応 △要自前実装 △要自前実装
日本語性能
無料トライアル ○カード不要 ○カード不要 △クレジット必要 △クレジット必要
データ学習 ✕学習なし ✕学習なし ✕学習なし ✕学習なし
オンプレ対応 △限定的 △限定的

Cohereが向いているケース

  • 社内文書をRAGで活用したい — ネイティブのドキュメントグラウンディングが強力
  • Embedによる意味検索を安くやりたい — Embed 4は$0.12/100万トークンと業界最安水準
  • オンプレミス・プライベートクラウドが必要 — 金融・医療などの規制産業
  • ツールユース(Function Calling)を多用する — Command R系はエージェント用途に最適化

Cohereが向かないケース

  • 日本語の日常会話・創作 → ChatGPTやClaudeの方が自然
  • 画像・音声入力が必要 → Command Rはテキスト専用
  • コーディングタスク → GitHub CopilotやCursorの方が実用的

AI PICKSの独自評価

AI PICKSでは、500以上のAIツールを独自の評価基準でスコアリングしています。外部レビュー・SNSバズ・トレンド指数・サイト人気度・プロダクト品質の5軸で総合評価しています。

ツール名 総合スコア カテゴリ内順位 料金タイプ
ChatGPT 95pt 1位/4中 フリーミアム
Claude 93pt 2位/4中 フリーミアム

スコアはAI PICKSの独自基準で算出。詳細は評価基準についてをご覧ください。

よくある質問

Q. Command R2とCommand Rは別モデルですか?

Cohereの公式モデル名に「Command R2」はありません。検索で見かける「Command R2」は、Command Rシリーズ(Command R / R+ / R7B)の総称として使われることが多いです。最新世代を指す場合は「Command R (08-2024)」「Command R7B (12-2024)」が正式名称です。

Q. 無料プランに制限はありますか?

Trial APIキーはレートリミット(リクエスト数/分)が厳しく設定されていますが、機能制限はほとんどありません。商用利用は本番用キー(Production Key)が必要です。Production Keyの取得にはクレジットカードの登録が必要ですが、従量課金のため使わなければ費用は発生しません。

Q. 日本語はうまく扱えますか?

Command Rシリーズは多言語対応を明示していますが、日本語の流暢さではChatGPTClaudeには及ばないというのが実際の評価です。ただし、RAGにおける日本語ドキュメントの引用・検索精度は実用水準に達しており、社内ドキュメントの検索・要約用途では十分です。

Q. OpenAI Embeddingsと比べてどうですか?

Embed 4は多言語性能が高く、OpenAI text-embedding-3-largeと同等以上の検索精度を出すベンチマーク結果があります。料金は$0.12/100万トークンと、text-embedding-3-largeの$0.13/100万トークンとほぼ同価格です。Cohereのエコシステム内でEmbedとRerankを組み合わせると、単体モデルより高い精度が出やすい点が強みです。

Q. オンプレミスデプロイはどうやってやりますか?

Cohereは「Cohere Platform」として自己ホスト型のデプロイをサポートしています。AWS / GCP / Azure のマーケットプレイスからCohereモデルを利用する方法と、オンプレミスサーバーへの直接デプロイの両方に対応しています。詳細はCohere社の営業チームへの問い合わせが必要です。

Q. LangChainやLlamaIndexと連携できますか?

はい、両方に対応しています。LangChainの場合はlangchain-cohereパッケージ、LlamaIndexの場合はllama-index-llms-cohereパッケージを使います。

# LangChain連携
pip install langchain-cohere

# LlamaIndex連携
pip install llama-index-llms-cohere llama-index-embeddings-cohere

LangChainではChatCohereクラス、LlamaIndexではCohereクラスとして組み込めます。既存のRAGパイプラインをCohereに切り替える場合も、モデルの差し替えだけで動作することがほとんどです。

Q. エラーが多発する場合のデバッグ方法は?

よくあるエラーと対処法をまとめます。

# 429 Too Many Requests → Trial keyのレートリミット超過
# → time.sleep(1) でリクエスト間隔を空ける
# → または本番用キーに切り替える

# invalid_api_key → 環境変数の読み込み漏れ
# → os.environ.get()ではなくos.environ["COHERE_API_KEY"]で確認

# context_length_exceeded → ドキュメントが長すぎる
# → チャンク分割(max 4,096トークン/チャンクが目安)

Cohere公式のDashboardには使用量・エラーのモニタリング機能があります。トークン消費量もリアルタイムで確認できるので、コスト管理にも役立ちます。