
【2026年最新】ComfyUIの使い方・インストール完全ガイド|初心者から上級者まで徹底解説
AI画像生成ツールの中でも、「自分でカスタマイズしたい」「再現性の高いワークフローを組みたい」と思ったらたどり着くのがComfyUIです。GitHubスター数6万超えのオープンソースツールで、世界中のAI画像生成クリエイターに愛用されています。
2026年現在、Desktop V1の正式リリースとComfy Cloud(公式クラウド版)の無料プラン提供により、以前は「ハードルが高い」と言われていたComfyUIが初心者でも気軽に始められるようになりました。この記事では、インストールから基本ワークフロー、Flux・LoRAの活用法、A1111との使い分けまで徹底解説します。
この記事でわかること
- ComfyUIとは何か・なぜAIクリエイターに選ばれるのか
- Desktop版の簡単インストール方法(Windows/Mac対応)
- Comfy Cloud無料プランでGPUなしでも試せる方法
- 基本ワークフローの組み方とFlux.1対応
- LoRA・ControlNetの活用テクニック
- A1111 WebUIとの比較と使い分け方
30秒で結論
- カスタマイズ性・再現性・効率で最強。 ノードベースなので複雑なワークフローも視覚的に管理できる
- 2026年はDesktop版でワンクリックインストール可能。Pythonの知識は不要
- GPUがない人でもComfy Cloudの無料枠(月400クレジット)で始められる
- 学習コストはやや高め。「手軽に1枚生成したい」だけならMidjourneyやDALL-Eで十分
- Flux.1、SDXL、WAN動画生成まで対応。1ツールで画像から動画まで完結
ComfyUIとは?ノードベース画像生成の革命

ComfyUIは、Stable Diffusionを操作するためのノードベースGUIツールです。2023年に個人開発者(comfyanonymous氏)がオープンソースで公開し、その柔軟性と効率性から瞬く間に世界的なAI画像生成コミュニティの標準ツールになりました。
「ノードベース」とはどういうことか?
従来のStable Diffusion WebUI(A1111)は、スライダーやテキストボックスが並ぶ「フォーム型」インターフェースです。対してComfyUIは、処理の各ステップを「ノード」というブロックで表現し、線でつないでワークフローを構築します。
例えば「テキストを読み込む → モデルに渡す → サンプリングする → 画像をデコードして出力する」という一連の処理が、画面上にブロック図として可視化されます。一見複雑そうに見えますが、慣れると「どこで何が起きているか」が一目でわかるため、高度な処理も直感的に組めます。
ComfyUIが選ばれる5つの理由
1. 高いVRAM効率 同じモデルを使っても、A1111より少ないVRAMで動作します。8GB GPUでもFlux.1が動くケースがあります。
2. 完全な再現性 ワークフローをJSONファイルとして保存・共有できます。他人のワークフローを読み込めば、同じ結果を完全に再現できます。
3. バッチ処理の強さ 複数のプロンプト・パラメータを並列で処理するバッチ生成が得意。同じキャラクターの表情違い・角度違いを一括生成する場合などに強みを発揮します。
4. 最新モデルへの対応の速さ Flux.1、WAN 2.2、LTX-2など、新モデルが出たらコミュニティが即座にワークフローを公開します。公式の対応を待たずに最新技術を試せます。
5. 完全無料・オープンソース ローカルで使う限りコストはゼロ。GitHub上でソースコードも公開されており、自分でカスタマイズすることも可能です。
2026年のComfyUI:Desktop版とComfy Cloud
ComfyUI Desktop V1の正式リリース
2024年末にアナウンスされたDesktop版は、現在正式に一般公開されています。Pythonのインストール・Git操作・環境構築は一切不要。約200MBのインストーラーをダウンロードして実行するだけです。
Desktop版の主な特徴:
| 機能 | 詳細 |
|---|---|
| ワンクリックインストール | Python/Git知識不要 |
| 対応OS | Windows / macOS(Apple Silicon対応) |
| ComfyUI Manager内蔵 | カスタムノードをGUI管理 |
| テンプレートライブラリ搭載 | すぐに使えるワークフローが多数 |
| 自動モデルダウンロード | 不足モデルを自動取得 |
| 自動更新機能 | 常に最新バージョン |
| AMD GPU対応 | ROCm統合済み(v0.7.0以降) |
Comfy Cloud:GPUなしでも使えるクラウド版
2026年3月に公式クラウド「Comfy Cloud」の無料枠(Free Tier)が提供開始されました。クレジットカード登録なしでGoogleアカウントだけでサインアップでき、毎月400クレジットが付与されます。
Comfy Cloud の料金プラン:
| プラン | 月額 | クレジット | GPU | 特徴 |
|---|---|---|---|---|
| Free | $0 | 400/月 | RTX Pro 6000(96GB VRAM) | カード登録不要、翌月繰り越し不可 |
| Pro | $20/月 | 制限なし(使用量課金) | RTX Pro 6000(96GB VRAM) | ワークフロー上限なし |
Free枠でできること:
- 350種類以上のテンプレートワークフロー実行
- 画像生成(Flux、SDXL等)
- 動画生成(WAN 2.2 Image-to-Videoで月約35本)
- 3Dモデル生成(Hunyuan3D)
- 音声生成(ACE)
- 1回のワークフロー実行につき最大10分の制限あり
📌 ポイント: Comfy Cloudは900種類以上のモデルが利用可能。ローカルGPUがない人でもプロ品質の生成を体験できます。
ComfyUIのインストール方法【2026年最新版】

方法1:Desktop版(初心者推奨)
推奨スペック:
| 項目 | 最低限 | 推奨 |
|---|---|---|
| GPU | NVIDIA 6GB VRAM | NVIDIA 12GB+ VRAM |
| RAM | 8GB | 16GB+ |
| ストレージ | HDD 50GB | SSD 100GB+ |
| OS | Windows 10 / macOS 12+ | Windows 11 / macOS 14+ |
インストール手順:
1. https://www.comfy.org にアクセス
2. 「Download Desktop」からWindows版またはmacOS版をダウンロード
3. インストーラーを実行(約200MB)
4. ComfyUI Desktopが起動したら完了
5. テンプレートライブラリからワークフローを選択して生成開始
AMD GPU(Radeon)ユーザーも、v0.7.0からROCmが正式統合されたため追加設定不要です。
方法2:Comfy Cloud(GPU不要・ブラウザだけ)
1. https://app.comfy.org にアクセス
2. 「Sign in with Google」でログイン
3. テンプレートを選ぶか、ワークフローをインポート
4. 「Run」をクリックしてクラウドGPUで実行
ローカルGPUがなくても、RTX Pro 6000(96GB VRAM)というハイエンドGPUで実行されます。
方法3:CLIインストール(上級者向け)
既存のA1111環境とモデルを共有したい場合や、サーバー環境で動かしたい場合はCLI版も選べます:
# Pythonのインストール(3.11推奨)
# CUDA対応PyTorchのインストール
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
# ComfyUIのクローン
git clone https://github.com/comfyanonymous/ComfyUI
cd ComfyUI
# 依存パッケージのインストール
pip install -r requirements.txt
# 起動
python main.py
起動後、ブラウザで http://127.0.0.1:8188 にアクセスするとComfyUIのUIが表示されます。
ComfyUIの基本ワークフロー
最初の画像を生成する
ComfyUI Desktopを起動するとキャンバスが表示されます。テンプレートライブラリから「Text-to-Image(Basic)」を選択すると、基本的なワークフローがキャンバス上に展開されます。
基本ワークフローのノード構成:
[CLIP Text Encode (Prompt)] ─────────────────────────────────┐
[CLIP Text Encode (Negative Prompt)] ──────────────┐ │
[Load Checkpoint] ─── [KSampler] ─── [VAE Decode] ─── [Save Image]
↑
[Empty Latent Image]
各ノードの役割:
- Load Checkpoint: 使用するモデル(.safetensors)を読み込む
- CLIP Text Encode: プロンプト(ポジティブ/ネガティブ)をテキストエンコード
- KSampler: サンプリングアルゴリズムでノイズを除去して画像を生成
- VAE Decode: 潜在空間から実際の画像にデコード
- Save Image: 生成した画像を保存
プロンプトの入力方法
CLIP Text Encodeノードのテキストエリアに直接プロンプトを入力します。基本的に英語で入力します:
# ポジティブプロンプト例
masterpiece, best quality, 1girl, blue eyes, long hair,
white dress, sitting in garden, sunlight, bokeh
# ネガティブプロンプト例
nsfw, worst quality, low quality, blurry, extra fingers
Flux.1とSDXLの使い方
Flux.1への対応
2025年に登場したBlack Forest Labs(旧Stability AI研究者チーム)のFlux.1は、SDXL以上のクオリティを誇る最新オープンソースモデルです。ComfyUIはFlex.1の主要サポートプラットフォームとして早期から対応しています。
Flux.1のモデルバリエーション:
| モデル | 特徴 | VRAM目安 | 用途 |
|---|---|---|---|
| Flux.1 [schnell] | 高速(4ステップで生成) | 8GB | 素早いプロトタイプ |
| Flux.1 [dev] | 高品質 | 16GB | 本番用高品質生成 |
| Flux.1 [pro] | 最高品質 | API経由 | 商業利用最高品質 |
Flux対応ワークフローのキーノード:
[FluxGuidance] ─ ノードを追加してGuidance Scale設定
[Load Diffusion Model] ─ Flux専用モデルローダー
LoRAとControlNetの活用テクニック
LoRAとControlNetを使いこなすことで、ComfyUIの真価が発揮されます。
LoRAの使い方
LoRA(Low-Rank Adaptation)は、特定のキャラクター・スタイル・概念を追加学習させた軽量な拡張モデルです。Civitai(https://civitai.com)で数万種類が無料公開されています。
LoRA適用方法:
# ダウンロードしたLoRAファイルを配置
ComfyUI/models/loras/[LoRAファイル名.safetensors]
# ワークフロー上でLoad LoRAノードを追加
[Load Checkpoint] ─ [Load LoRA] ─ [KSampler]
↑
strength: 0.5〜0.8(調整)
複数のLoRAを組み合わせることも可能です。キャラクターLoRA(0.7)+スタイルLoRA(0.4)のように重みを調整しながら重ねがけします。
ControlNetでポーズ・構図を固定する
ControlNetは、参照画像からポーズや構図を抽出して生成を制御する技術です。「このポーズのキャラクターを生成したい」「この構図のまま絵柄を変えたい」という用途に最適です。
ControlNet主要モード:
| モード | 用途 |
|---|---|
| Canny | エッジ(輪郭線)の抽出・維持 |
| Depth | 深度マップによる空間構造の維持 |
| OpenPose | 人体のポーズ制御 |
| Scribble | ラフスケッチから画像生成 |
| IP-Adapter | 参照画像のスタイル転写 |
ComfyUI vs A1111 WebUI:使い分けガイド
ComfyUIとAutomatic1111(A1111)WebUIはどちらもStable Diffusionの主要フロントエンドです。選択基準を整理します。
| 比較項目 | ComfyUI | A1111 WebUI |
|---|---|---|
| 難易度 | 中〜上級 | 初級〜中級 |
| インターフェース | ノードベース(フロー) | フォーム型(タブUI) |
| 再現性 | ◎ ワークフロー共有が容易 | △ 設定の再現が難しい |
| VRAM効率 | ◎ 非常に効率的 | ○ 標準的 |
| バッチ処理 | ◎ 得意 | △ 限定的 |
| 最新モデル対応 | ◎ コミュニティが即対応 | ○ 少し遅れる |
| 拡張機能の豊富さ | ○ 豊富 | ◎ 業界最大 |
| 初心者向け | △ 学習コストあり | ◎ 直感的 |
| 動画生成 | ◎ WAN/LTX対応 | △ 限定的 |
ComfyUIがベスト:
- ワークフローの再現・共有をしたい
- VRAMが少ない環境で動かしたい
- Flux.1など最新モデルをすぐ試したい
- 動画生成まで一貫して使いたい
- バッチ処理・量産制作が多い
A1111がベスト:
- はじめてStable Diffusionを触る
- 特定のextension(WebUIにしかない機能)が必要
- フォーム型UIのほうが作業しやすい
- 既存の設定やプロジェクトを引き継ぎたい
よくある質問(FAQ)
Q: ComfyUIは完全無料ですか? A: ローカルで使う場合は完全無料です。GPUと電気代のみが実費です。Comfy Cloud(公式クラウド版)には無料枠(月400クレジット)があり、カード登録不要で始められます。本格利用なら月$20のProプランが必要です。
Q: GPUなしでも使えますか? A: 2つの選択肢があります。①Comfy Cloud(クラウド版)を使う ②ローカルでCPUモードで動かす。CPUモードはStable Diffusionの生成に数分〜数十分かかるため実用的ではありません。本格利用にはGPUが必要です。ComfyUIを試したいだけならComfy Cloudの無料枠が最も手軽です。
Q: AppleシリコンMacで使えますか? A: はい、ComfyUI Desktop版はApple Silicon(M1/M2/M3/M4)に対応しています。MacのGPU(Metal)を使って生成できますが、NVIDIAのCUDAほど高速ではありません。M4 Pro以上であれば実用的な速度で動作します。
Q: ComfyUIとCivitaiのモデルはどう使いますか?
A: Civitai(civitai.com)でモデルやLoRAをダウンロードし、対応するフォルダに配置するだけです。ローカル版の場合は ComfyUI/models/checkpoints/(モデル)または ComfyUI/models/loras/(LoRA)に.safetensorsファイルを入れます。ComfyUI Desktopではモデルライブラリからドラッグ&ドロップで管理できます。
Q: AUTOMATIC1111からComfyUIに移行できますか?
A: モデルファイル(.safetensors)は共通して使えます。extra_model_paths.yamlを設定することで、A1111のモデルフォルダをComfyUIから参照することも可能です。ただし、ワークフローや設定は互換性がないため、新たにComfyUI用のワークフローを組み直す必要があります。
Q: ComfyUI Managerとは何ですか? A: カスタムノード(プラグイン)のインストール・更新・管理を行うツールです。Desktop版には標準搭載されています。主要なカスタムノード(ControlNet、IP-Adapter、WAN動画生成など)をGUI上でワンクリックインストールできます。
Q: Flux.1を動かすのに何GBのVRAMが必要ですか? A: Flux.1 [schnell]であれば8GB VRAMで動作する場合があります(量子化モデル使用時)。高品質なFlux.1 [dev]は16GBが推奨です。Comfy Cloudなら96GBのVRAMがあるので制限なく使えます。
Q: ComfyUIで動画も生成できますか? A: はい、対応しています。WAN 2.2(動画生成)、LTX-2(高速動画)、AnimateDiff(アニメーション)など複数の動画生成ワークフローが公開されています。Comfy Cloudの無料枠では、WAN 2.2 Image-to-Videoで5秒の動画を月約35本生成できます。
