ComfyUI 完全ガイドのヒーロー画像

【2026年最新】ComfyUIの使い方・インストール完全ガイド|初心者から上級者まで徹底解説

AI画像生成ツールの中でも、「自分でカスタマイズしたい」「再現性の高いワークフローを組みたい」と思ったらたどり着くのがComfyUIです。GitHubスター数6万超えのオープンソースツールで、世界中のAI画像生成クリエイターに愛用されています。

2026年現在、Desktop V1の正式リリースとComfy Cloud(公式クラウド版)の無料プラン提供により、以前は「ハードルが高い」と言われていたComfyUIが初心者でも気軽に始められるようになりました。この記事では、インストールから基本ワークフロー、Flux・LoRAの活用法、A1111との使い分けまで徹底解説します。

この記事でわかること

  • ComfyUIとは何か・なぜAIクリエイターに選ばれるのか
  • Desktop版の簡単インストール方法(Windows/Mac対応)
  • Comfy Cloud無料プランでGPUなしでも試せる方法
  • 基本ワークフローの組み方とFlux.1対応
  • LoRA・ControlNetの活用テクニック
  • A1111 WebUIとの比較と使い分け方

30秒で結論

  • カスタマイズ性・再現性・効率で最強。 ノードベースなので複雑なワークフローも視覚的に管理できる
  • 2026年はDesktop版でワンクリックインストール可能。Pythonの知識は不要
  • GPUがない人でもComfy Cloudの無料枠(月400クレジット)で始められる
  • 学習コストはやや高め。「手軽に1枚生成したい」だけならMidjourneyやDALL-Eで十分
  • Flux.1、SDXL、WAN動画生成まで対応。1ツールで画像から動画まで完結

ComfyUIとは?ノードベース画像生成の革命

ComfyUIのノードベースワークフロー

ComfyUIは、Stable Diffusionを操作するためのノードベースGUIツールです。2023年に個人開発者(comfyanonymous氏)がオープンソースで公開し、その柔軟性と効率性から瞬く間に世界的なAI画像生成コミュニティの標準ツールになりました。

「ノードベース」とはどういうことか?

従来のStable Diffusion WebUI(A1111)は、スライダーやテキストボックスが並ぶ「フォーム型」インターフェースです。対してComfyUIは、処理の各ステップを「ノード」というブロックで表現し、線でつないでワークフローを構築します。

例えば「テキストを読み込む → モデルに渡す → サンプリングする → 画像をデコードして出力する」という一連の処理が、画面上にブロック図として可視化されます。一見複雑そうに見えますが、慣れると「どこで何が起きているか」が一目でわかるため、高度な処理も直感的に組めます。

ComfyUIが選ばれる5つの理由

1. 高いVRAM効率 同じモデルを使っても、A1111より少ないVRAMで動作します。8GB GPUでもFlux.1が動くケースがあります。

2. 完全な再現性 ワークフローをJSONファイルとして保存・共有できます。他人のワークフローを読み込めば、同じ結果を完全に再現できます。

3. バッチ処理の強さ 複数のプロンプト・パラメータを並列で処理するバッチ生成が得意。同じキャラクターの表情違い・角度違いを一括生成する場合などに強みを発揮します。

4. 最新モデルへの対応の速さ Flux.1、WAN 2.2、LTX-2など、新モデルが出たらコミュニティが即座にワークフローを公開します。公式の対応を待たずに最新技術を試せます。

5. 完全無料・オープンソース ローカルで使う限りコストはゼロ。GitHub上でソースコードも公開されており、自分でカスタマイズすることも可能です。

2026年のComfyUI:Desktop版とComfy Cloud

ComfyUI Desktop V1の正式リリース

2024年末にアナウンスされたDesktop版は、現在正式に一般公開されています。Pythonのインストール・Git操作・環境構築は一切不要。約200MBのインストーラーをダウンロードして実行するだけです。

Desktop版の主な特徴:

機能 詳細
ワンクリックインストール Python/Git知識不要
対応OS Windows / macOS(Apple Silicon対応)
ComfyUI Manager内蔵 カスタムノードをGUI管理
テンプレートライブラリ搭載 すぐに使えるワークフローが多数
自動モデルダウンロード 不足モデルを自動取得
自動更新機能 常に最新バージョン
AMD GPU対応 ROCm統合済み(v0.7.0以降)

Comfy Cloud:GPUなしでも使えるクラウド版

2026年3月に公式クラウド「Comfy Cloud」の無料枠(Free Tier)が提供開始されました。クレジットカード登録なしでGoogleアカウントだけでサインアップでき、毎月400クレジットが付与されます。

Comfy Cloud の料金プラン:

プラン 月額 クレジット GPU 特徴
Free $0 400/月 RTX Pro 6000(96GB VRAM) カード登録不要、翌月繰り越し不可
Pro $20/月 制限なし(使用量課金) RTX Pro 6000(96GB VRAM) ワークフロー上限なし

Free枠でできること:

  • 350種類以上のテンプレートワークフロー実行
  • 画像生成(Flux、SDXL等)
  • 動画生成(WAN 2.2 Image-to-Videoで月約35本)
  • 3Dモデル生成(Hunyuan3D)
  • 音声生成(ACE)
  • 1回のワークフロー実行につき最大10分の制限あり

📌 ポイント: Comfy Cloudは900種類以上のモデルが利用可能。ローカルGPUがない人でもプロ品質の生成を体験できます。

ComfyUIのインストール方法【2026年最新版】

ComfyUIのインストール手順

方法1:Desktop版(初心者推奨)

推奨スペック:

項目 最低限 推奨
GPU NVIDIA 6GB VRAM NVIDIA 12GB+ VRAM
RAM 8GB 16GB+
ストレージ HDD 50GB SSD 100GB+
OS Windows 10 / macOS 12+ Windows 11 / macOS 14+

インストール手順:

1. https://www.comfy.org にアクセス
2. 「Download Desktop」からWindows版またはmacOS版をダウンロード
3. インストーラーを実行(約200MB)
4. ComfyUI Desktopが起動したら完了
5. テンプレートライブラリからワークフローを選択して生成開始

AMD GPU(Radeon)ユーザーも、v0.7.0からROCmが正式統合されたため追加設定不要です。

方法2:Comfy Cloud(GPU不要・ブラウザだけ)

1. https://app.comfy.org にアクセス
2. 「Sign in with Google」でログイン
3. テンプレートを選ぶか、ワークフローをインポート
4. 「Run」をクリックしてクラウドGPUで実行

ローカルGPUがなくても、RTX Pro 6000(96GB VRAM)というハイエンドGPUで実行されます。

方法3:CLIインストール(上級者向け)

既存のA1111環境とモデルを共有したい場合や、サーバー環境で動かしたい場合はCLI版も選べます:

# Pythonのインストール(3.11推奨)
# CUDA対応PyTorchのインストール
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

# ComfyUIのクローン
git clone https://github.com/comfyanonymous/ComfyUI
cd ComfyUI

# 依存パッケージのインストール
pip install -r requirements.txt

# 起動
python main.py

起動後、ブラウザで http://127.0.0.1:8188 にアクセスするとComfyUIのUIが表示されます。

ComfyUIの基本ワークフロー

最初の画像を生成する

ComfyUI Desktopを起動するとキャンバスが表示されます。テンプレートライブラリから「Text-to-Image(Basic)」を選択すると、基本的なワークフローがキャンバス上に展開されます。

基本ワークフローのノード構成:

[CLIP Text Encode (Prompt)] ─────────────────────────────────┐
[CLIP Text Encode (Negative Prompt)] ──────────────┐         │
[Load Checkpoint] ─── [KSampler] ─── [VAE Decode] ─── [Save Image]
                           ↑
                    [Empty Latent Image]

各ノードの役割:

  • Load Checkpoint: 使用するモデル(.safetensors)を読み込む
  • CLIP Text Encode: プロンプト(ポジティブ/ネガティブ)をテキストエンコード
  • KSampler: サンプリングアルゴリズムでノイズを除去して画像を生成
  • VAE Decode: 潜在空間から実際の画像にデコード
  • Save Image: 生成した画像を保存

プロンプトの入力方法

CLIP Text Encodeノードのテキストエリアに直接プロンプトを入力します。基本的に英語で入力します:

# ポジティブプロンプト例
masterpiece, best quality, 1girl, blue eyes, long hair, 
white dress, sitting in garden, sunlight, bokeh

# ネガティブプロンプト例
nsfw, worst quality, low quality, blurry, extra fingers

Flux.1とSDXLの使い方

Flux.1への対応

2025年に登場したBlack Forest Labs(旧Stability AI研究者チーム)のFlux.1は、SDXL以上のクオリティを誇る最新オープンソースモデルです。ComfyUIはFlex.1の主要サポートプラットフォームとして早期から対応しています。

Flux.1のモデルバリエーション:

モデル 特徴 VRAM目安 用途
Flux.1 [schnell] 高速(4ステップで生成) 8GB 素早いプロトタイプ
Flux.1 [dev] 高品質 16GB 本番用高品質生成
Flux.1 [pro] 最高品質 API経由 商業利用最高品質

Flux対応ワークフローのキーノード:

[FluxGuidance] ─ ノードを追加してGuidance Scale設定
[Load Diffusion Model] ─ Flux専用モデルローダー

LoRAとControlNetの活用テクニック

LoRAとControlNetを使いこなすことで、ComfyUIの真価が発揮されます。

LoRAの使い方

LoRA(Low-Rank Adaptation)は、特定のキャラクター・スタイル・概念を追加学習させた軽量な拡張モデルです。Civitai(https://civitai.com)で数万種類が無料公開されています。

LoRA適用方法:

# ダウンロードしたLoRAファイルを配置
ComfyUI/models/loras/[LoRAファイル名.safetensors]

# ワークフロー上でLoad LoRAノードを追加
[Load Checkpoint] ─ [Load LoRA] ─ [KSampler]
                         ↑
                  strength: 0.5〜0.8(調整)

複数のLoRAを組み合わせることも可能です。キャラクターLoRA(0.7)+スタイルLoRA(0.4)のように重みを調整しながら重ねがけします。

ControlNetでポーズ・構図を固定する

ControlNetは、参照画像からポーズや構図を抽出して生成を制御する技術です。「このポーズのキャラクターを生成したい」「この構図のまま絵柄を変えたい」という用途に最適です。

ControlNet主要モード:

モード 用途
Canny エッジ(輪郭線)の抽出・維持
Depth 深度マップによる空間構造の維持
OpenPose 人体のポーズ制御
Scribble ラフスケッチから画像生成
IP-Adapter 参照画像のスタイル転写

ComfyUI vs A1111 WebUI:使い分けガイド

ComfyUIとAutomatic1111(A1111)WebUIはどちらもStable Diffusionの主要フロントエンドです。選択基準を整理します。

比較項目 ComfyUI A1111 WebUI
難易度 中〜上級 初級〜中級
インターフェース ノードベース(フロー) フォーム型(タブUI)
再現性 ◎ ワークフロー共有が容易 △ 設定の再現が難しい
VRAM効率 ◎ 非常に効率的 ○ 標準的
バッチ処理 ◎ 得意 △ 限定的
最新モデル対応 ◎ コミュニティが即対応 ○ 少し遅れる
拡張機能の豊富さ ○ 豊富 ◎ 業界最大
初心者向け △ 学習コストあり ◎ 直感的
動画生成 ◎ WAN/LTX対応 △ 限定的

ComfyUIがベスト:

  • ワークフローの再現・共有をしたい
  • VRAMが少ない環境で動かしたい
  • Flux.1など最新モデルをすぐ試したい
  • 動画生成まで一貫して使いたい
  • バッチ処理・量産制作が多い

A1111がベスト:

  • はじめてStable Diffusionを触る
  • 特定のextension(WebUIにしかない機能)が必要
  • フォーム型UIのほうが作業しやすい
  • 既存の設定やプロジェクトを引き継ぎたい

よくある質問(FAQ)

Q: ComfyUIは完全無料ですか? A: ローカルで使う場合は完全無料です。GPUと電気代のみが実費です。Comfy Cloud(公式クラウド版)には無料枠(月400クレジット)があり、カード登録不要で始められます。本格利用なら月$20のProプランが必要です。

Q: GPUなしでも使えますか? A: 2つの選択肢があります。①Comfy Cloud(クラウド版)を使う ②ローカルでCPUモードで動かす。CPUモードはStable Diffusionの生成に数分〜数十分かかるため実用的ではありません。本格利用にはGPUが必要です。ComfyUIを試したいだけならComfy Cloudの無料枠が最も手軽です。

Q: AppleシリコンMacで使えますか? A: はい、ComfyUI Desktop版はApple Silicon(M1/M2/M3/M4)に対応しています。MacのGPU(Metal)を使って生成できますが、NVIDIAのCUDAほど高速ではありません。M4 Pro以上であれば実用的な速度で動作します。

Q: ComfyUIとCivitaiのモデルはどう使いますか? A: Civitai(civitai.com)でモデルやLoRAをダウンロードし、対応するフォルダに配置するだけです。ローカル版の場合は ComfyUI/models/checkpoints/(モデル)または ComfyUI/models/loras/(LoRA)に.safetensorsファイルを入れます。ComfyUI Desktopではモデルライブラリからドラッグ&ドロップで管理できます。

Q: AUTOMATIC1111からComfyUIに移行できますか? A: モデルファイル(.safetensors)は共通して使えます。extra_model_paths.yamlを設定することで、A1111のモデルフォルダをComfyUIから参照することも可能です。ただし、ワークフローや設定は互換性がないため、新たにComfyUI用のワークフローを組み直す必要があります。

Q: ComfyUI Managerとは何ですか? A: カスタムノード(プラグイン)のインストール・更新・管理を行うツールです。Desktop版には標準搭載されています。主要なカスタムノード(ControlNet、IP-Adapter、WAN動画生成など)をGUI上でワンクリックインストールできます。

Q: Flux.1を動かすのに何GBのVRAMが必要ですか? A: Flux.1 [schnell]であれば8GB VRAMで動作する場合があります(量子化モデル使用時)。高品質なFlux.1 [dev]は16GBが推奨です。Comfy Cloudなら96GBのVRAMがあるので制限なく使えます。

Q: ComfyUIで動画も生成できますか? A: はい、対応しています。WAN 2.2(動画生成)、LTX-2(高速動画)、AnimateDiff(アニメーション)など複数の動画生成ワークフローが公開されています。Comfy Cloudの無料枠では、WAN 2.2 Image-to-Videoで5秒の動画を月約35本生成できます。