Skip to content

Latest commit

 

History

History
487 lines (297 loc) · 35 KB

gen_img_README-ja.md

File metadata and controls

487 lines (297 loc) · 35 KB

SD 1.xおよび2.xのモデル、当リポジトリで学習したLoRA、ControlNet(v1.0のみ動作確認)などに対応した、Diffusersベースの推論(画像生成)スクリプトです。コマンドラインから用います。

概要

  • Diffusers (v0.10.2) ベースの推論(画像生成)スクリプト。
  • SD 1.xおよび2.x (base/v-parameterization)モデルに対応。
  • txt2img、img2img、inpaintingに対応。
  • 対話モード、およびファイルからのプロンプト読み込み、連続生成に対応。
  • プロンプト1行あたりの生成枚数を指定可能。
  • 全体の繰り返し回数を指定可能。
  • fp16だけでなくbf16にも対応。
  • xformersに対応し高速生成が可能。
    • xformersにより省メモリ生成を行いますが、Automatic 1111氏のWeb UIほど最適化していないため、512*512の画像生成でおおむね6GB程度のVRAMを使用します。
  • プロンプトの225トークンへの拡張。ネガティブプロンプト、重みづけに対応。
  • Diffusersの各種samplerに対応(Web UIよりもsampler数は少ないです)。
  • Text Encoderのclip skip(最後からn番目の層の出力を用いる)に対応。
  • VAEの別途読み込み。
  • CLIP Guided Stable Diffusion、VGG16 Guided Stable Diffusion、Highres. fix、upscale対応。
    • Highres. fixはWeb UIの実装を全く確認していない独自実装のため、出力結果は異なるかもしれません。
  • LoRA対応。適用率指定、複数LoRA同時利用、重みのマージに対応。
    • Text EncoderとU-Netで別の適用率を指定することはできません。
  • Attention Coupleに対応。
  • ControlNet v1.0に対応。
  • 途中でモデルを切り替えることはできませんが、バッチファイルを組むことで対応できます。
  • 個人的に欲しくなった機能をいろいろ追加。

機能追加時にすべてのテストを行っているわけではないため、以前の機能に影響が出て一部機能が動かない可能性があります。何か問題があればお知らせください。

基本的な使い方

対話モードでの画像生成

以下のように入力してください。

python gen_img_diffusers.py --ckpt <モデル名> --outdir <画像出力先> --xformers --fp16 --interactive

--ckptオプションにモデル(Stable Diffusionのcheckpointファイル、またはDiffusersのモデルフォルダ)、--outdirオプションに画像の出力先フォルダを指定します。

--xformersオプションでxformersの使用を指定します(xformersを使わない場合は外してください)。--fp16オプションでfp16(単精度)での推論を行います。RTX 30系のGPUでは --bf16オプションでbf16(bfloat16)での推論を行うこともできます。

--interactiveオプションで対話モードを指定しています。

Stable Diffusion 2.0(またはそこからの追加学習モデル)を使う場合は--v2オプションを追加してください。v-parameterizationを使うモデル(768-v-ema.ckptおよびそこからの追加学習モデル)を使う場合はさらに--v_parameterizationを追加してください。

--v2の指定有無が間違っているとモデル読み込み時にエラーになります。--v_parameterizationの指定有無が間違っていると茶色い画像が表示されます。

Type prompt:と表示されたらプロンプトを入力してください。

image

※画像が表示されずエラーになる場合、headless(画面表示機能なし)のOpenCVがインストールされているかもしれません。pip install opencv-pythonとして通常のOpenCVを入れてください。または--no_previewオプションで画像表示を止めてください。

画像ウィンドウを選択してから何らかのキーを押すとウィンドウが閉じ、次のプロンプトが入力できます。プロンプトでCtrl+Z、エンターの順に打鍵するとスクリプトを閉じます。

単一のプロンプトで画像を一括生成

以下のように入力します(実際には1行で入力します)。

python gen_img_diffusers.py --ckpt <モデル名> --outdir <画像出力先> 
    --xformers --fp16 --images_per_prompt <生成枚数> --prompt "<プロンプト>"

--images_per_promptオプションで、プロンプト1件当たりの生成枚数を指定します。--promptオプションでプロンプトを指定します。スペースを含む場合はダブルクォーテーションで囲んでください。

--batch_sizeオプションでバッチサイズを指定できます(後述)。

ファイルからプロンプトを読み込み一括生成

以下のように入力します。

python gen_img_diffusers.py --ckpt <モデル名> --outdir <画像出力先> 
    --xformers --fp16 --from_file <プロンプトファイル名>

--from_fileオプションで、プロンプトが記述されたファイルを指定します。1行1プロンプトで記述してください。--images_per_promptオプションを指定して1行あたり生成枚数を指定できます。

ネガティブプロンプト、重みづけの使用

プロンプトオプション(プロンプト内で--xのように指定、後述)で--nを書くと、以降がネガティブプロンプトとなります。

またAUTOMATIC1111氏のWeb UIと同様の () [](xxx:1.3) などによる重みづけが可能です(実装はDiffusersのLong Prompt Weighting Stable Diffusionからコピーしたものです)。

コマンドラインからのプロンプト指定、ファイルからのプロンプト読み込みでも同様に指定できます。

image

主なオプション

コマンドラインから指定してください。

モデルの指定

  • --ckpt <モデル名>:モデル名を指定します。--ckptオプションは必須です。Stable Diffusionのcheckpointファイル、またはDiffusersのモデルフォルダ、Hugging FaceのモデルIDを指定できます。

  • --v2:Stable Diffusion 2.x系のモデルを使う場合に指定します。1.x系の場合には指定不要です。

  • --v_parameterization:v-parameterizationを使うモデルを使う場合に指定します(768-v-ema.ckptおよびそこからの追加学習モデル、Waifu Diffusion v1.5など)。

    --v2の指定有無が間違っているとモデル読み込み時にエラーになります。--v_parameterizationの指定有無が間違っていると茶色い画像が表示されます。

  • --vae:使用するVAEを指定します。未指定時はモデル内のVAEを使用します。

画像生成と出力

  • --interactive:インタラクティブモードで動作します。プロンプトを入力すると画像が生成されます。

  • --prompt <プロンプト>:プロンプトを指定します。スペースを含む場合はダブルクォーテーションで囲んでください。

  • --from_file <プロンプトファイル名>:プロンプトが記述されたファイルを指定します。1行1プロンプトで記述してください。なお画像サイズやguidance scaleはプロンプトオプション(後述)で指定できます。

  • --W <画像幅>:画像の幅を指定します。デフォルトは512です。

  • --H <画像高さ>:画像の高さを指定します。デフォルトは512です。

  • --steps <ステップ数>:サンプリングステップ数を指定します。デフォルトは50です。

  • --scale <ガイダンススケール>:unconditionalガイダンススケールを指定します。デフォルトは7.5です。

  • --sampler <サンプラー名>:サンプラーを指定します。デフォルトはddimです。Diffusersで提供されているddim、pndm、dpmsolver、dpmsolver+++、lms、euler、euler_a、が指定可能です(後ろの三つはk_lms、k_euler、k_euler_aでも指定できます)。

  • --outdir <画像出力先フォルダ>:画像の出力先を指定します。

  • --images_per_prompt <生成枚数>:プロンプト1件当たりの生成枚数を指定します。デフォルトは1です。

  • --clip_skip <スキップ数>:CLIPの後ろから何番目の層を使うかを指定します。省略時は最後の層を使います。

  • --max_embeddings_multiples <倍数>:CLIPの入出力長をデフォルト(75)の何倍にするかを指定します。未指定時は75のままです。たとえば3を指定すると入出力長が225になります。

  • --negative_scale : uncoditioningのguidance scaleを個別に指定します。gcem156氏のこちらの記事を参考に実装したものです。

メモリ使用量や生成速度の調整

  • --batch_size <バッチサイズ>:バッチサイズを指定します。デフォルトは1です。バッチサイズが大きいとメモリを多く消費しますが、生成速度が速くなります。

  • --vae_batch_size <VAEのバッチサイズ>:VAEのバッチサイズを指定します。デフォルトはバッチサイズと同じです。 VAEのほうがメモリを多く消費するため、デノイジング後(stepが100%になった後)でメモリ不足になる場合があります。このような場合にはVAEのバッチサイズを小さくしてください。

  • --xformers:xformersを使う場合に指定します。

  • --fp16:fp16(単精度)での推論を行います。fp16bf16をどちらも指定しない場合はfp32(単精度)での推論を行います。

  • --bf16:bf16(bfloat16)での推論を行います。RTX 30系のGPUでのみ指定可能です。--bf16オプションはRTX 30系以外のGPUではエラーになります。fp16よりもbf16のほうが推論結果がNaNになる(真っ黒の画像になる)可能性が低いようです。

追加ネットワーク(LoRA等)の使用

  • --network_module:使用する追加ネットワークを指定します。LoRAの場合は--network_module networks.loraと指定します。複数のLoRAを使用する場合は--network_module networks.lora networks.lora networks.loraのように指定します。

  • --network_weights:使用する追加ネットワークの重みファイルを指定します。--network_weights model.safetensorsのように指定します。複数のLoRAを使用する場合は--network_weights model1.safetensors model2.safetensors model3.safetensorsのように指定します。引数の数は--network_moduleで指定した数と同じにしてください。

  • --network_mul:使用する追加ネットワークの重みを何倍にするかを指定します。デフォルトは1です。--network_mul 0.8のように指定します。複数のLoRAを使用する場合は--network_mul 0.4 0.5 0.7のように指定します。引数の数は--network_moduleで指定した数と同じにしてください。

  • --network_merge:使用する追加ネットワークの重みを--network_mulに指定した重みであらかじめマージします。--network_pre_calc と同時に使用できません。プロンプトオプションの--am、およびRegional LoRAは使用できなくなりますが、LoRA未使用時と同じ程度まで生成が高速化されます。

  • --network_pre_calc:使用する追加ネットワークの重みを生成ごとにあらかじめ計算します。プロンプトオプションの--amが使用できます。LoRA未使用時と同じ程度まで生成は高速化されますが、生成前に重みを計算する時間が必要で、またメモリ使用量も若干増加します。Regional LoRA使用時は無効になります 。

主なオプションの指定例

次は同一プロンプトで64枚をバッチサイズ4で一括生成する例です。

python gen_img_diffusers.py --ckpt model.ckpt --outdir outputs 
    --xformers --fp16 --W 512 --H 704 --scale 12.5 --sampler k_euler_a 
    --steps 32 --batch_size 4 --images_per_prompt 64 
    --prompt "beautiful flowers --n monochrome"

次はファイルに書かれたプロンプトを、それぞれ10枚ずつ、バッチサイズ4で一括生成する例です。

python gen_img_diffusers.py --ckpt model.ckpt --outdir outputs 
    --xformers --fp16 --W 512 --H 704 --scale 12.5 --sampler k_euler_a 
    --steps 32 --batch_size 4 --images_per_prompt 10 
    --from_file prompts.txt

Textual Inversion(後述)およびLoRAの使用例です。

python gen_img_diffusers.py --ckpt model.safetensors 
    --scale 8 --steps 48 --outdir txt2img --xformers 
    --W 512 --H 768 --fp16 --sampler k_euler_a 
    --textual_inversion_embeddings goodembed.safetensors negprompt.pt 
    --network_module networks.lora networks.lora 
    --network_weights model1.safetensors model2.safetensors 
    --network_mul 0.4 0.8 
    --clip_skip 2 --max_embeddings_multiples 1 
    --batch_size 8 --images_per_prompt 1 --interactive

プロンプトオプション

プロンプト内で、--nのように「ハイフンふたつ+アルファベットn文字」でプロンプトから各種オプションの指定が可能です。対話モード、コマンドライン、ファイル、いずれからプロンプトを指定する場合でも有効です。

プロンプトのオプション指定--nの前後にはスペースを入れてください。

  • --n:ネガティブプロンプトを指定します。

  • --w:画像幅を指定します。コマンドラインからの指定を上書きします。

  • --h:画像高さを指定します。コマンドラインからの指定を上書きします。

  • --s:ステップ数を指定します。コマンドラインからの指定を上書きします。

  • --d:この画像の乱数seedを指定します。--images_per_promptを指定している場合は「--d 1,2,3,4」のようにカンマ区切りで複数指定してください。 ※様々な理由により、Web UIとは同じ乱数seedでも生成される画像が異なる場合があります。

  • --l:guidance scaleを指定します。コマンドラインからの指定を上書きします。

  • --t:img2img(後述)のstrengthを指定します。コマンドラインからの指定を上書きします。

  • --nl:ネガティブプロンプトのguidance scaleを指定します(後述)。コマンドラインからの指定を上書きします。

  • --am:追加ネットワークの重みを指定します。コマンドラインからの指定を上書きします。複数の追加ネットワークを使用する場合は--am 0.8,0.5,0.3のように カンマ区切りで 指定します。

※これらのオプションを指定すると、バッチサイズよりも小さいサイズでバッチが実行される場合があります(これらの値が異なると一括生成できないため)。(あまり気にしなくて大丈夫ですが、ファイルからプロンプトを読み込み生成する場合は、これらの値が同一のプロンプトを並べておくと効率が良くなります。)

例:

(masterpiece, best quality), 1girl, in shirt and plated skirt, standing at street under cherry blossoms, upper body, [from below], kind smile, looking at another, [goodembed] --n realistic, real life, (negprompt), (lowres:1.1), (worst quality:1.2), (low quality:1.1), bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, normal quality, jpeg artifacts, signature, watermark, username, blurry --w 960 --h 640 --s 28 --d 1

image

img2img

オプション

  • --image_path:img2imgに利用する画像を指定します。--image_path template.pngのように指定します。フォルダを指定すると、そのフォルダの画像を順次利用します。

  • --strength:img2imgのstrengthを指定します。--strength 0.8のように指定します。デフォルトは0.8です。

  • --sequential_file_name:ファイル名を連番にするかどうかを指定します。指定すると生成されるファイル名がim_000001.pngからの連番になります。

  • --use_original_file_name:指定すると生成ファイル名がオリジナルのファイル名と同じになります。

コマンドラインからの実行例

python gen_img_diffusers.py --ckpt trinart_characters_it4_v1_vae_merged.ckpt 
    --outdir outputs --xformers --fp16 --scale 12.5 --sampler k_euler --steps 32 
    --image_path template.png --strength 0.8 
    --prompt "1girl, cowboy shot, brown hair, pony tail, brown eyes, 
          sailor school uniform, outdoors 
          --n lowres, bad anatomy, bad hands, error, missing fingers, cropped, 
          worst quality, low quality, normal quality, jpeg artifacts, (blurry), 
          hair ornament, glasses" 
    --batch_size 8 --images_per_prompt 32

--image_pathオプションにフォルダを指定すると、そのフォルダの画像を順次読み込みます。生成される枚数は画像枚数ではなく、プロンプト数になりますので、`--images_per_promptPPオプションを指定してimg2imgする画像の枚数とプロンプト数を合わせてください。

ファイルはファイル名でソートして読み込みます。なおソート順は文字列順となりますので(1.jpg→2.jpg→10.jpgではなく1.jpg→10.jpg→2.jpgの順)、頭を0埋めするなどしてご対応ください(01.jpg→02.jpg→10.jpg)。

img2imgを利用したupscale

img2img時にコマンドラインオプションの--W--Hで生成画像サイズを指定すると、元画像をそのサイズにリサイズしてからimg2imgを行います。

またimg2imgの元画像がこのスクリプトで生成した画像の場合、プロンプトを省略すると、元画像のメタデータからプロンプトを取得しそのまま用います。これによりHighres. fixの2nd stageの動作だけを行うことができます。

img2img時のinpainting

画像およびマスク画像を指定してinpaintingできます(inpaintingモデルには対応しておらず、単にマスク領域を対象にimg2imgするだけです)。

オプションは以下の通りです。

  • --mask_image:マスク画像を指定します。--img_pathと同様にフォルダを指定すると、そのフォルダの画像を順次利用します。

マスク画像はグレースケール画像で、白の部分がinpaintingされます。境界をグラデーションしておくとなんとなく滑らかになりますのでお勧めです。

image

その他の機能

Textual Inversion

--textual_inversion_embeddingsオプションで使用するembeddingsを指定します(複数指定可)。拡張子を除いたファイル名をプロンプト内で使用することで、そのembeddingsを利用します(Web UIと同様の使用法です)。ネガティブプロンプト内でも使用できます。

モデルとして、当リポジトリで学習したTextual Inversionモデル、およびWeb UIで学習したTextual Inversionモデル(画像埋め込みは非対応)を利用できます

Extended Textual Inversion

--textual_inversion_embeddingsの代わりに--XTI_embeddingsオプションを指定してください。使用法は--textual_inversion_embeddingsと同じです。

Highres. fix

AUTOMATIC1111氏のWeb UIにある機能の類似機能です(独自実装のためもしかしたらいろいろ異なるかもしれません)。最初に小さめの画像を生成し、その画像を元にimg2imgすることで、画像全体の破綻を防ぎつつ大きな解像度の画像を生成します。

2nd stageのstep数は--steps--strengthオプションの値から計算されます(steps*strength)。

img2imgと併用できません。

以下のオプションがあります。

  • --highres_fix_scale:Highres. fixを有効にして、1st stageで生成する画像のサイズを、倍率で指定します。最終出力が1024x1024で、最初に512x512の画像を生成する場合は--highres_fix_scale 0.5のように指定します。Web UI出の指定の逆数になっていますのでご注意ください。

  • --highres_fix_steps:1st stageの画像のステップ数を指定します。デフォルトは28です。

  • --highres_fix_save_1st:1st stageの画像を保存するかどうかを指定します。

  • --highres_fix_latents_upscaling:指定すると2nd stageの画像生成時に1st stageの画像をlatentベースでupscalingします(bilinearのみ対応)。未指定時は画像をLANCZOS4でupscalingします。

  • --highres_fix_upscaler:2nd stageに任意のupscalerを利用します。現在は--highres_fix_upscaler tools.latent_upscaler のみ対応しています。

  • --highres_fix_upscaler_args--highres_fix_upscalerで指定したupscalerに渡す引数を指定します。 tools.latent_upscalerの場合は、--highres_fix_upscaler_args "weights=D:\Work\SD\Models\others\etc\upscaler-v1-e100-220.safetensors"のように重みファイルを指定します。

コマンドラインの例です。

python gen_img_diffusers.py  --ckpt trinart_characters_it4_v1_vae_merged.ckpt
    --n_iter 1 --scale 7.5 --W 1024 --H 1024 --batch_size 1 --outdir ../txt2img 
    --steps 48 --sampler ddim --fp16 
    --xformers 
    --images_per_prompt 1  --interactive 
    --highres_fix_scale 0.5 --highres_fix_steps 28 --strength 0.5

ControlNet

現在はControlNet 1.0のみ動作確認しています。プリプロセスはCannyのみサポートしています。

以下のオプションがあります。

  • --control_net_models:ControlNetのモデルファイルを指定します。 複数指定すると、それらをstepごとに切り替えて利用します(Web UIのControlNet拡張の実装と異なります)。diffと通常の両方をサポートします。

  • --guide_image_path:ControlNetに使うヒント画像を指定します。--img_pathと同様にフォルダを指定すると、そのフォルダの画像を順次利用します。Canny以外のモデルの場合には、あらかじめプリプロセスを行っておいてください。

  • --control_net_preps:ControlNetのプリプロセスを指定します。--control_net_modelsと同様に複数指定可能です。現在はcannyのみ対応しています。対象モデルでプリプロセスを使用しない場合は none を指定します。 cannyの場合 --control_net_preps canny_63_191のように、閾値1と2を'_'で区切って指定できます。

  • --control_net_weights:ControlNetの適用時の重みを指定します(1.0で通常、0.5なら半分の影響力で適用)。--control_net_modelsと同様に複数指定可能です。

  • --control_net_ratios:ControlNetを適用するstepの範囲を指定します。0.5の場合は、step数の半分までControlNetを適用します。--control_net_modelsと同様に複数指定可能です。

コマンドラインの例です。

python gen_img_diffusers.py --ckpt model_ckpt --scale 8 --steps 48 --outdir txt2img --xformers 
    --W 512 --H 768 --bf16 --sampler k_euler_a 
    --control_net_models diff_control_sd15_canny.safetensors --control_net_weights 1.0 
    --guide_image_path guide.png --control_net_ratios 1.0 --interactive

Attention Couple + Reginal LoRA

プロンプトをいくつかの部分に分割し、それぞれのプロンプトを画像内のどの領域に適用するかを指定できる機能です。個別のオプションはありませんが、mask_pathとプロンプトで指定します。

まず、プロンプトでANDを利用して、複数部分を定義します。最初の3つに対して領域指定ができ、以降の部分は画像全体へ適用されます。ネガティブプロンプトは画像全体に適用されます。

以下ではANDで3つの部分を定義しています。

shs 2girls, looking at viewer, smile AND bsb 2girls, looking back AND 2girls --n bad quality, worst quality

次にマスク画像を用意します。マスク画像はカラーの画像で、RGBの各チャネルがプロンプトのANDで区切られた部分に対応します。またあるチャネルの値がすべて0の場合、画像全体に適用されます。

上記の例では、Rチャネルがshs 2girls, looking at viewer, smile、Gチャネルがbsb 2girls, looking backに、Bチャネルが2girlsに対応します。次のようなマスク画像を使用すると、Bチャネルに指定がありませんので、2girlsは画像全体に適用されます。

image

マスク画像は--mask_pathで指定します。現在は1枚のみ対応しています。指定した画像サイズに自動的にリサイズされ適用されます。

ControlNetと組み合わせることも可能です(細かい位置指定にはControlNetとの組み合わせを推奨します)。

LoRAを指定すると、--network_weightsで指定した複数のLoRAがそれぞれANDの各部分に対応します。現在の制約として、LoRAの数はANDの部分の数と同じである必要があります。

CLIP Guided Stable Diffusion

DiffusersのCommunity Examplesのこちらのcustom pipelineからソースをコピー、変更したものです。

通常のプロンプトによる生成指定に加えて、追加でより大規模のCLIPでプロンプトのテキストの特徴量を取得し、生成中の画像の特徴量がそのテキストの特徴量に近づくよう、生成される画像をコントロールします(私のざっくりとした理解です)。大きめのCLIPを使いますのでVRAM使用量はかなり増加し(VRAM 8GBでは512*512でも厳しいかもしれません)、生成時間も掛かります。

なお選択できるサンプラーはDDIM、PNDM、LMSのみとなります。

--clip_guidance_scaleオプションにどの程度、CLIPの特徴量を反映するかを数値で指定します。先のサンプルでは100になっていますので、そのあたりから始めて増減すると良いようです。

デフォルトではプロンプトの先頭75トークン(重みづけの特殊文字を除く)がCLIPに渡されます。プロンプトの--cオプションで、通常のプロンプトではなく、CLIPに渡すテキストを別に指定できます(たとえばCLIPはDreamBoothのidentifier(識別子)や「1girl」などのモデル特有の単語は認識できないと思われますので、それらを省いたテキストが良いと思われます)。

コマンドラインの例です。

python gen_img_diffusers.py  --ckpt v1-5-pruned-emaonly.ckpt --n_iter 1 
    --scale 2.5 --W 512 --H 512 --batch_size 1 --outdir ../txt2img --steps 36  
    --sampler ddim --fp16 --opt_channels_last --xformers --images_per_prompt 1  
    --interactive --clip_guidance_scale 100

CLIP Image Guided Stable Diffusion

テキストではなくCLIPに別の画像を渡し、その特徴量に近づくよう生成をコントロールする機能です。--clip_image_guidance_scaleオプションで適用量の数値を、--guide_image_pathオプションでguideに使用する画像(ファイルまたはフォルダ)を指定してください。

コマンドラインの例です。

python gen_img_diffusers.py  --ckpt trinart_characters_it4_v1_vae_merged.ckpt
    --n_iter 1 --scale 7.5 --W 512 --H 512 --batch_size 1 --outdir ../txt2img 
    --steps 80 --sampler ddim --fp16 --opt_channels_last --xformers 
    --images_per_prompt 1  --interactive  --clip_image_guidance_scale 100 
    --guide_image_path YUKA160113420I9A4104_TP_V.jpg

VGG16 Guided Stable Diffusion

指定した画像に近づくように画像生成する機能です。通常のプロンプトによる生成指定に加えて、追加でVGG16の特徴量を取得し、生成中の画像が指定したガイド画像に近づくよう、生成される画像をコントロールします。img2imgでの使用をお勧めします(通常の生成では画像がぼやけた感じになります)。CLIP Guided Stable Diffusionの仕組みを流用した独自の機能です。またアイデアはVGGを利用したスタイル変換から拝借しています。

なお選択できるサンプラーはDDIM、PNDM、LMSのみとなります。

--vgg16_guidance_scaleオプションにどの程度、VGG16特徴量を反映するかを数値で指定します。試した感じでは100くらいから始めて増減すると良いようです。--guide_image_pathオプションでguideに使用する画像(ファイルまたはフォルダ)を指定してください。

複数枚の画像を一括でimg2img変換し、元画像をガイド画像とする場合、--guide_image_path--image_pathに同じ値を指定すればOKです。

コマンドラインの例です。

python gen_img_diffusers.py --ckpt wd-v1-3-full-pruned-half.ckpt 
    --n_iter 1 --scale 5.5 --steps 60 --outdir ../txt2img 
    --xformers --sampler ddim --fp16 --W 512 --H 704 
    --batch_size 1 --images_per_prompt 1 
    --prompt "picturesque, 1girl, solo, anime face, skirt, beautiful face 
        --n lowres, bad anatomy, bad hands, error, missing fingers, 
        cropped, worst quality, low quality, normal quality, 
        jpeg artifacts, blurry, 3d, bad face, monochrome --d 1" 
    --strength 0.8 --image_path ..\src_image
    --vgg16_guidance_scale 100 --guide_image_path ..\src_image 

`--vgg16_guidance_layerPで特徴量取得に使用するVGG16のレイヤー番号を指定できます(デフォルトは20でconv4-2のReLUです)。上の層ほど画風を表現し、下の層ほどコンテンツを表現するといわれています。

image

その他のオプション

  • --no_preview : 対話モードでプレビュー画像を表示しません。OpenCVがインストールされていない場合や、出力されたファイルを直接確認する場合に指定してください。

  • --n_iter : 生成を繰り返す回数を指定します。デフォルトは1です。プロンプトをファイルから読み込むとき、複数回の生成を行いたい場合に指定します。

  • --tokenizer_cache_dir : トークナイザーのキャッシュディレクトリを指定します。(作業中)

  • --seed : 乱数seedを指定します。1枚生成時はその画像のseed、複数枚生成時は各画像のseedを生成するための乱数のseedになります(--from_fileで複数画像生成するとき、--seedオプションを指定すると複数回実行したときに各画像が同じseedになります)。

  • --iter_same_seed : プロンプトに乱数seedの指定がないとき、--n_iterの繰り返し内ではすべて同じseedを使います。--from_fileで指定した複数のプロンプト間でseedを統一して比較するときに使います。

  • --diffusers_xformers : Diffuserのxformersを使用します。

  • --opt_channels_last : 推論時にテンソルのチャンネルを最後に配置します。場合によっては高速化されることがあります。

  • --network_show_meta : 追加ネットワークのメタデータを表示します。


About Gradual Latent

Gradual Latent is a Hires fix that gradually increases the size of the latent. gen_img.py, sdxl_gen_img.py, and gen_img_diffusers.py have the following options.

  • --gradual_latent_timesteps: Specifies the timestep to start increasing the size of the latent. The default is None, which means Gradual Latent is not used. Please try around 750 at first.
  • --gradual_latent_ratio: Specifies the initial size of the latent. The default is 0.5, which means it starts with half the default latent size.
  • --gradual_latent_ratio_step: Specifies the ratio to increase the size of the latent. The default is 0.125, which means the latent size is gradually increased to 0.625, 0.75, 0.875, 1.0.
  • --gradual_latent_ratio_every_n_steps: Specifies the interval to increase the size of the latent. The default is 3, which means the latent size is increased every 3 steps.

Each option can also be specified with prompt options, --glt, --glr, --gls, --gle.

Please specify euler_a for the sampler. Because the source code of the sampler is modified. It will not work with other samplers.

It is more effective with SD 1.5. It is quite subtle with SDXL.

Gradual Latent について

latentのサイズを徐々に大きくしていくHires fixです。gen_img.py 、``sdxl_gen_img.pygen_img_diffusers.py` に以下のオプションが追加されています。

  • --gradual_latent_timesteps : latentのサイズを大きくし始めるタイムステップを指定します。デフォルトは None で、Gradual Latentを使用しません。750 くらいから始めてみてください。
  • --gradual_latent_ratio : latentの初期サイズを指定します。デフォルトは 0.5 で、デフォルトの latent サイズの半分のサイズから始めます。
  • --gradual_latent_ratio_step: latentのサイズを大きくする割合を指定します。デフォルトは 0.125 で、latentのサイズを 0.625, 0.75, 0.875, 1.0 と徐々に大きくします。
  • --gradual_latent_ratio_every_n_steps: latentのサイズを大きくする間隔を指定します。デフォルトは 3 で、3ステップごとに latent のサイズを大きくします。

それぞれのオプションは、プロンプトオプション、--glt--glr--gls--gle でも指定できます。

サンプラーに手を加えているため、サンプラーに euler_a を指定してください。 他のサンプラーでは動作しません。

SD 1.5 のほうが効果があります。SDXL ではかなり微妙です。