tags : ComfyUI

IPAdapter とは

CLIP Vision でリファレンス画像をベクトル化し、テキスト条件と同様に生成を条件付ける仕組み。テキストプロンプトでは伝えにくい「色味・トーン・雰囲気」をリファレンス画像で指示できる。

被写体(人物・物体)をコピーするのではなく、スタイルを拾う。

ワークフロー構成

txt2img(または AnimateDiff)ワークフローへの追加:

  1. IPAdapter Unified Loader を追加
  2. IPAdapter ノードを追加
  3. Load Image(リファレンス画像)を追加
  4. Checkpoint Loader → Unified Loader → IPAdapter → KSampler の順にモデルを接続
Load Checkpoint → IPAdapter Unified Loader → IPAdapter → KSampler → VAE Decode → Save Image

Load Image(リファレンス画像)─────────────────┘
CLIP Text Encode (positive) → KSampler
CLIP Text Encode (negative) → KSampler
Empty Latent Image → KSampler

IPAdapter Unified Loader

Add Node → ipadapter → ローダー → IPAdapter Unified Loader で追加。

IPAdapter モデルと CLIP Vision をまとめて読み込む。旧 IPAdapter Model Loader は非推奨。

preset

配置済みモデルに合わせて選ぶ。

preset対応モデル特徴
LIGHT - SD1.5 onlyip-adapter_sd15_light弱い影響
STANDARDip-adapter_sd15標準
PLUSip-adapter-plus_sd15.safetensors強い影響
PLUS FACEip-adapter-plus-face_sd15顔特化

IPAdapter ノード

Add Node → ipadapter → IPAdapter で追加。旧名 IPAdapter Apply。

入力:

  • model — Unified Loader の model 出力
  • ipadapter — Unified Loader の ipadapter 出力
  • image — リファレンス画像

出力:

  • モデル — KSampler の model 入力へ

パラメータ

weight

リファレンス画像の影響度。0.0〜1.0。

挙動
0.3ほぼプロンプト支配。リファレンスの影響がほとんどない
0.7バランスが良い。スタイルと構図が混ざる
1.0リファレンス支配。色・雰囲気が強く反映される

0.7 前後が使いやすい。

weight_type

重みの適用方式。通常は standard のまま。

start_at / end_at

IPAdapter の効果を適用するステップ範囲。デフォルトは 0.0〜1.0(全ステップ)。

リファレンス画像の影響

IPAdapter は被写体ではなく「スタイル」を拾う。

リファレンス画像生成結果への影響
カラフルな抽象画鮮やかな色彩、ポップな雰囲気
モノクロ写真彩度が低下、重厚で落ち着いたトーン

同じプロンプト・同じシードでも、リファレンス画像を差し替えるだけで映像の印象が大きく変わる。

IPAdapter あり vs なし

IPAdapter ノードを右クリック → Bypass で効果を無効化できる。

あり : リファレンス画像のスタイルが反映される

なし : テキストプロンプトのみで生成される「普通の」結果

KSampler(ComfyUI) AnimateDiff(ComfyUI)

KSampler(ComfyUI)

AnimateDiff(ComfyUI)