<a href=ChatGPT API 完全ガイド">

【2026年最新】ChatGPT APIの使い方・料金を完全解説|初心者でもわかるAPIキー取得から実装まで

ChatGPT APIを使えば、自社アプリやWebサービスにOpenAIの大規模言語モデルを組み込めます。「ChatGPT Plusとの違いがわからない」「料金が不安」「そもそもAPIキーの取り方がわからない」——この記事では、そうした疑問をすべて解消します。

この記事でわかること

  • ChatGPT APIとChatGPT Plus(月額$20)の違い
  • 2026年3月時点の全モデル料金一覧(GPT-5シリーズ / GPT-4.1 / o3 / o4-mini)
  • APIキーの取得手順(スクリーンショット付き)
  • Pythonでの基本的な実装方法(Responses API対応)
  • 月額コストのシミュレーション例
  • Claude API・Gemini APIとの料金比較

30秒で結論

  • 個人の実験・勉強用 → GPT-5-nano(入力$0.025/100万トークン)で月数十円から始められる
  • プロダクション利用 → GPT-5-miniまたはGPT-4.1-miniがコスパ最強。月1万リクエストでも数千円
  • 最高品質が必要 → GPT-5.4(入力$1.25/100万トークン)。ただし出力$7.50なのでコスト管理は必須
  • Assistants APIは2026年半ばに終了予定。新規開発はResponses APIで始めるべき
  • APIキー取得は5分で完了。クレジットカード登録が必要だが、使った分だけの従量課金なので安心

ChatGPT APIとは?ChatGPT Plusとの違い

ChatGPT APIの仕組み

ChatGPT APIは、OpenAIの大規模言語モデル(LLM)を自分のアプリケーションから呼び出すためのインターフェースです。ブラウザでアクセスするChatGPT(chatgpt.com)とは、まったく別のサービスと考えてください。

ChatGPT Plus vs API:どちらを使うべき?

項目 ChatGPT Plus ChatGPT API
料金体系 月額$20固定 従量課金(使った分だけ)
アクセス方法 ブラウザ / アプリ HTTPリクエスト(コード)
カスタマイズ プロンプトのみ システムプロンプト、パラメータ、関数呼び出し
利用制限 時間あたりのメッセージ数制限あり レートリミット(Tier依存)
データ学習 オプトアウト可能 デフォルトで学習に使われない
向いている人 個人利用、対話形式 開発者、自動化、プロダクト組み込み

正直なところ、「ChatGPTを自分のサービスに組み込みたい」「大量のデータを自動処理したい」という目的がなければ、ChatGPT Plusで十分です。逆に、月に数千件以上のリクエストを自動で処理するなら、APIの方がコスト効率は高い。

APIでできること

ChatGPT APIで実現できる代表的なユースケースをいくつか挙げます。

  • チャットボット構築 — 自社サイトにAI問い合わせ窓口を設置
  • 文書の自動要約 — 社内レポートや議事録を自動で要約
  • データ分類・抽出 — メール、アンケート回答の自動分類
  • コード生成・レビュー — 開発ワークフローへの組み込み
  • 多言語翻訳 — リアルタイム翻訳システムの構築
  • コンテンツ生成 — 商品説明文やSNS投稿の自動生成

ChatGPT APIの料金体系【2026年3月最新】

料金プラン比較

ChatGPT APIはトークン単位の従量課金制です。トークンとはテキストを細かく分割した単位で、日本語では1トークン ≒ 2〜3文字、英語では1トークン ≒ 1単語が目安になります。

料金は「100万トークンあたり(/1M tokens)」で表示されます。入力(プロンプト)と出力(応答)で料金が異なり、一般的に出力の方が高く設定されています。

GPT-5シリーズ(最新世代)

モデル 入力料金 出力料金 特徴
GPT-5.4 $1.25/1M $7.50/1M 最高性能。複雑な推論・創作に最適
GPT-5.2 $0.875/1M $7.00/1M 現行フラッグシップ。汎用性が高い
GPT-5 $0.625/1M $5.00/1M 標準モデル。十分な性能
GPT-5-mini $0.125/1M $1.00/1M 軽量・高速。定型業務の大量処理向き
GPT-5-nano $0.025/1M $0.20/1M 最安。分類・抽出・簡単な応答に

GPT-4.1シリーズ(前世代・コスパ良好)

モデル 入力料金 出力料金 特徴
GPT-4.1 $2.00/1M $8.00/1M 高性能だがGPT-5シリーズに対してやや割高
GPT-4.1-mini $0.40/1M $1.60/1M バランス型。多くの用途で十分
GPT-4.1-nano $0.10/1M $0.40/1M 超軽量。シンプルなタスク向け

推論モデル(oシリーズ)

モデル 入力料金 出力料金 特徴
o3 $2.00/1M $8.00/1M 高度な推論。数学・論理問題に強い
o4-mini $1.10/1M $4.40/1M 軽量推論。コーディング支援に最適

⚠ 推論モデルは応答前に「思考プロセス」を実行します。この思考トークン(reasoning tokens)も出力トークンとして課金されるため、見かけの出力量より実際のコストが高くなります。

画像・音声・動画モデル

モデル 料金 用途
gpt-image-1 入力$10.00/1M、出力$40.00/1M 画像理解・生成
gpt-realtime 入力$4.00/1M、出力$16.00/1M リアルタイム音声対話
gpt-realtime-mini 入力$0.60/1M、出力$2.40/1M 軽量版リアルタイム
sora-2 $0.10/秒〜 動画生成(720p)

Batch API(大量処理の味方)

時間的制約がない大量リクエストにはBatch APIが使えます。通常料金の50%オフで処理可能。24時間以内に結果が返されます。

たとえばGPT-5-miniのBatch APIなら、入力100万トークンがわずか$0.0625。日次のデータ処理ジョブや開発・テスト段階では、Batch APIの活用がコスト削減の鍵です。

月額コストのシミュレーション

「結局いくらかかるの?」が最も気になるところでしょう。具体的なシミュレーションを出します。

ケース1: 個人開発者の実験(GPT-5-nano)

  • 1リクエスト: 入力500トークン + 出力500トークン
  • 1日10回 × 30日 = 300リクエスト/月
  • 月額: 約$0.03(約5円)

ケース2: 社内チャットボット(GPT-5-mini)

  • 1リクエスト: 入力1,000トークン + 出力800トークン
  • 1日100件 × 20営業日 = 2,000リクエスト/月
  • 月額: 約$1.85(約280円)

ケース3: プロダクション環境(GPT-5.2)

  • 1リクエスト: 入力2,000トークン + 出力1,500トークン
  • 1日1,000件 × 30日 = 30,000リクエスト/月
  • 月額: 約$367.50(約55,000円)

個人や小規模利用なら月数百円程度。プロダクション規模でも、モデルの使い分けで大幅にコストを最適化できます。

APIキーの取得方法【5分で完了】

APIキー取得とPython実装

ChatGPT APIを使うには、まずOpenAIのAPIキーを取得する必要があります。手順は以下のとおりです。

ステップ1: OpenAIアカウントを作成

platform.openai.com にアクセスし、「Sign up」からアカウントを作成します。Google / Microsoft / Appleアカウントでのサインアップも可能です。

ステップ2: 支払い情報を登録

ダッシュボードの「Settings」→「Billing」から、クレジットカードを登録します。

📌 ポイント: 利用上限(Usage limits)を設定しておくのがおすすめ。「Monthly budget」を$10などに設定すれば、想定外の高額請求を防げる。

ステップ3: APIキーを発行

  1. ダッシュボード左メニューの「API keys」をクリック
  2. 「Create new secret key」をクリック
  3. キーの名前を入力(任意。例: my-project-key
  4. Permissionsを設定(通常は「All」でOK)
  5. 「Create secret key」をクリック

APIキーは発行時に一度だけ表示されます。必ずコピーして安全な場所に保管してください。紛失した場合は再発行が必要です。

ステップ4: 環境変数に設定

APIキーをコードにハードコーディングするのはセキュリティ上NGです。環境変数に設定しましょう。

macOS / Linux:

export OPENAI_API_KEY="sk-proj-xxxxxxxxxxxxxxxx"

永続化するには ~/.zshrc~/.bashrc に追記します。

Windows(PowerShell):

$env:OPENAI_API_KEY = "sk-proj-xxxxxxxxxxxxxxxx"

PythonでChatGPT APIを使う【実装ガイド】

ここからは実際にコードを書いてAPIを呼び出します。2026年時点で推奨されるのはResponses APIです(従来のChat Completions APIも引き続き利用可能)。

環境構築

# Python 3.9以上が必要
python --version

# OpenAIライブラリをインストール
pip install openai

基本的なテキスト生成(Chat Completions API)

まずは最も基本的な使い方から。

from openai import OpenAI

client = OpenAI()  # 環境変数 OPENAI_API_KEY を自動で読み込み

response = client.chat.completions.create(
    model="gpt-5-mini",
    messages=[
        {"role": "system", "content": "あなたは親切なアシスタントです。"},
        {"role": "user", "content": "Pythonのリスト内包表記を簡潔に説明してください。"}
    ],
    max_tokens=500,
    temperature=0.7
)

print(response.choices[0].message.content)

主要パラメータ:

パラメータ 説明 推奨値
model 使用するモデル 用途に応じて選択
messages 会話履歴(system / user / assistant) system含む
max_tokens 最大出力トークン数 用途に応じて設定
temperature ランダム性(0〜2) 創作: 0.7〜1.0、正確性重視: 0〜0.3
top_p 核サンプリング(0〜1) temperatureと併用しない

Responses API(新規開発推奨)

2025年にリリースされたResponses APIは、Chat Completions APIの機能をすべて含みつつ、ウェブ検索・ファイル検索・Computer Use(CUA)などの組み込みツールが利用できます。

from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="gpt-5-mini",
    input="2026年3月のAI業界の最新トレンドを教えてください。",
    tools=[{"type": "web_search_preview"}]
)

print(response.output_text)

Web検索ツールを有効にすると、モデルが自動で最新情報を検索してから回答します。Web検索の追加料金は1,000クエリあたり$25〜$30(モデルによる)。

ストリーミング応答

リアルタイムでレスポンスを表示したい場合はストリーミングを使います。

from openai import OpenAI

client = OpenAI()

stream = client.chat.completions.create(
    model="gpt-5-mini",
    messages=[
        {"role": "user", "content": "日本の四季について500字で書いてください。"}
    ],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)

JSON形式での出力

構造化データが欲しい場合は response_format を指定します。

from openai import OpenAI

client = OpenAI()

response = client.chat.completions.create(
    model="gpt-5-mini",
    messages=[
        {"role": "system", "content": "JSONで回答してください。"},
        {"role": "user", "content": "東京、大阪、福岡の人口と面積をJSON形式で返してください。"}
    ],
    response_format={"type": "json_object"}
)

print(response.choices[0].message.content)

コスト最適化の5つのテクニック

コスト最適化

APIを本格利用するなら、コスト最適化は避けて通れません。実践的なテクニックを5つ紹介します。

1. モデルの使い分け(ルーティング)

すべてのリクエストに高性能モデルを使う必要はありません。

簡単なタスク(分類、抽出)  → GPT-5-nano($0.025/$0.20)
標準タスク(要約、QA)     → GPT-5-mini($0.125/$1.00)
高品質タスク(創作、推論)  → GPT-5.2($0.875/$7.00)

タスクの難易度に応じてモデルを振り分けるだけで、コストを50〜90%削減できます。

2. プロンプトキャッシュの活用

同じシステムプロンプトを繰り返し使う場合、キャッシュが効いて入力コストが大幅に下がります。GPT-5シリーズではキャッシュヒット時の入力料金が通常の10〜50%になります。

長いシステムプロンプトを固定して、ユーザー入力だけを変えるアーキテクチャにするのがベストプラクティスです。

3. Batch APIの活用

リアルタイム性が不要な処理(日次レポート生成、大量データの分類など)はBatch APIを使えば50%オフ

# バッチリクエストの例(JSONLファイルで入稿)
{"custom_id": "req-1", "method": "POST", "url": "/v1/chat/completions",
 "body": {"model": "gpt-5-mini", "messages": [{"role": "user", "content": "要約してください: ..."}]}}

4. max_tokensの適切な設定

max_tokens を設定しないと、モデルは上限まで生成を続けます。用途に応じて適切に制限しましょう。

  • 分類タスク: max_tokens=50
  • 要約: max_tokens=500
  • 記事生成: max_tokens=2000

5. 利用上限(Usage limits)の設定

OpenAIダッシュボードの「Settings」→「Limits」で、月額上限を設定できます。想定外の高額請求を防ぐための安全策として必ず設定しておきましょう。

ChatGPT API vs Claude API vs Gemini API【料金比較】

ChatGPT APIだけが選択肢ではありません。主要3社のAPIを比較します。

フラッグシップモデル比較

項目 OpenAI GPT-5.2 Anthropic Claude Opus 4 Google Gemini 2.5 Pro
入力料金(/1M) $0.875 $15.00 $1.25〜
出力料金(/1M) $7.00 $75.00 $10.00〜
コンテキスト長 128K 200K 1M
得意分野 汎用・マルチモーダル 長文理解・コーディング 長文処理・Google連携

軽量モデル比較

項目 GPT-5-mini Claude Sonnet 4 Gemini 2.5 Flash
入力料金(/1M) $0.125 $3.00 $0.15〜
出力料金(/1M) $1.00 $15.00 $0.60〜
コスパ

結論: コスパ重視ならGPT-5-miniかGemini 2.5 Flashが突出している。Claude APIは出力品質が高い反面、料金もかなり高め。用途に応じた使い分けが最適解。

どう使い分ける?

  • 汎用・大量処理 → ChatGPT API(GPT-5-mini / nano)。エコシステムの豊富さとコスパが強み
  • 長文ドキュメント解析 → Gemini API。100万トークンのコンテキスト長は唯一無二
  • 高品質な日本語生成 → Claude API。特に長文の執筆・要約で自然な日本語を出力する
  • コスト最優先 → GPT-5-nanoまたはGemini Flash。月額数円から使える

Responses API vs Chat Completions API:どちらを使うべき?

2026年現在、OpenAIは2つのAPIを提供しています。

Chat Completions API

  • 最も広く使われているAPI
  • シンプルなテキスト生成に最適
  • 新機能のサポートは継続
  • 豊富なサードパーティライブラリ・チュートリアルがある

Responses API(推奨)

  • Chat Completions APIのスーパーセット
  • 組み込みツール対応(ウェブ検索、ファイル検索、Computer Use)
  • Agents SDKとの連携
  • Assistants API(2026年半ばに終了予定)の後継

新規プロジェクトならResponses APIを選んでおけば間違いない。 既存プロジェクトでChat Completions APIを使っている場合は、急いで移行する必要はありませんが、ツール統合が必要になったタイミングで移行を検討しましょう。

APIの利用制限(レートリミット)

OpenAI APIにはTier制のレートリミットがあります。

Tier 条件 RPM(リクエスト/分) TPM(トークン/分)
Free アカウント作成直後 3 40,000
Tier 1 $5以上の課金 500 200,000
Tier 2 $50以上の課金 + 7日経過 5,000 2,000,000
Tier 3 $100以上の課金 + 7日経過 5,000 4,000,000
Tier 4 $250以上の課金 + 14日経過 10,000 10,000,000
Tier 5 $1,000以上の課金 + 30日経過 10,000 30,000,000

📌 ポイント: Tier 1で十分な場合がほとんど。月500RPM(1秒に約8リクエスト)は個人〜中規模サービスなら余裕。

よくある質問(FAQ)

Q: ChatGPT APIは無料で使えますか? A: アカウント作成直後にFree Tierが利用可能ですが、レートリミットが非常に厳しい(3 RPM)ため、実用的ではありません。本格利用にはクレジットカード登録と$5以上の課金が必要です。GPT-5-nanoなら月数円程度から始められるので、費用はほぼ気にならないレベルです。

Q: ChatGPT PlusとAPIは別料金ですか? A: はい、完全に別です。ChatGPT Plus(月額$20)を契約していても、APIの利用料金は別途かかります。逆に、APIだけ使う場合はPlusの契約は不要です。

Q: APIで送信したデータはOpenAIの学習に使われますか? A: デフォルトでは使われません。API経由のデータはモデル学習に利用されないことがOpenAIのポリシーで明記されています。ただし、不正利用の監視のために30日間保持される場合があります。

Q: 日本語での利用にコスト増はありますか? A: あります。日本語は英語と比べて1文字あたりのトークン数が多い(おおよそ2〜3倍)ため、同じ文章量でもトークン消費が大きくなります。料金シミュレーションでは日本語分を考慮してください。

Q: APIキーが漏洩したらどうすればいいですか? A: すぐにOpenAIダッシュボードからキーを無効化(revoke)してください。新しいキーを再発行し、環境変数を更新します。利用上限を設定していれば、被害を最小限に抑えられます。GitHubなどの公開リポジトリにキーをpushしてしまうケースが多いので、.gitignore.env ファイルを追加しておきましょう。

Q: Assistants APIを使っていますが、移行は必要ですか? A: Assistants APIは2026年半ばに正式終了予定です。完全な機能パリティとスムーズな移行パスが提供されるとOpenAIは発表していますが、新機能はResponses APIにのみ追加されます。新規開発はResponses APIで始め、既存プロジェクトも計画的に移行を進めましょう。

Q: Claude APIやGemini APIとの併用は可能ですか? A: 可能です。実際にプロダクションでは、タスクの種類に応じて複数のAPIを使い分ける「マルチモデル戦略」が主流になりつつあります。LiteLLMなどのプロキシツールを使えば、モデルの切り替えをコード1行で実現できます。

Q: 法人利用で請求書払いは可能ですか? A: Tier 5以上の利用規模であれば、OpenAI営業チームに連絡することでエンタープライズ契約(請求書払い・SLA・カスタムレートリミット)を相談できます。それ以下の規模ではクレジットカード払いのみです。