Skip to content

Version 0.4.0

Compare
Choose a tag to compare
@kohya-ss kohya-ss released this 22 Jan 13:05
· 1351 commits to main since this release
0ca0642
  • Add --network_alpha option to specify alpha value to prevent underflows for stable training. Thanks to CCRcmcpe!

    • Details of the issue are described in kohya-ss/sd-webui-additional-networks#49 .
    • The default value is 1, scale 1 / rank (or dimension). Set same value as network_dim for same behavior to old version.
    • LoRA with a large dimension (rank) seems to require a higher learning rate with alpha=1 (e.g. 1e-3 for 128-dim, still investigating). 
  • Add logging for the learning rate for U-Net and Text Encoder independently, and for running average epoch loss. Thanks to mgz-dev!

  • Add more metadata such as dataset/reg image dirs, session ID, output name etc... See #77 for details. Thanks to space-nuko!

    • Now the metadata includes the folder name (the basename of the folder contains image files, not fullpath). If you do not want it, disable metadata storing with --no_metadata option.
  • Add --training_comment option. You can specify an arbitrary string and refer to it by the extension.

  • アンダーフローを防ぎ安定して学習するための alpha 値を指定する、--network_alpha オプションを追加しました。CCRcmcpe 氏に感謝します。

    • 問題の詳細はこちらをご覧ください: kohya-ss/sd-webui-additional-networks#49
    • デフォルト値は 1 で、LoRAの計算結果を 1 / rank (dimension・次元数) 倍します(つまり小さくなります。これにより同じ効果を出すために必要なLoRAの重みの変化が大きくなるため、アンダーフローが避けられるようになります)。network_dim と同じ値を指定すると旧バージョンと同じ動作になります。
    • alpha=1の場合、次元数(rank)の多いLoRAモジュールでは学習率を高めにしたほうが良いようです(128次元で1e-3など)。
  • U-Net と Text Encoder のそれぞれの学習率、エポックの平均lossをログに記録するようになりました。mgz-dev 氏に感謝します。

  • 画像ディレクトリ、セッションID、出力名などいくつかの項目がメタデータに追加されました(詳細は #77 を参照)。space-nuko氏に感謝します。

    • メタデータにフォルダ名が含まれるようになりました(画像を含むフォルダの名前のみで、フルパスではありません)。 もし望まない場合には --no_metadata オプションでメタデータの記録を止めてください。
  • --training_comment オプションを追加しました。任意の文字列を指定でき、Web UI拡張から参照できます。