From b8734405c65d35127e6c6a07bf72da1c8de552f5 Mon Sep 17 00:00:00 2001 From: Kohya S <52813779+kohya-ss@users.noreply.github.com> Date: Sun, 15 Jan 2023 12:52:31 +0900 Subject: [PATCH] Update README.md Add about release --- README.md | 94 +++---------------------------------------------------- 1 file changed, 4 insertions(+), 90 deletions(-) diff --git a/README.md b/README.md index 2b119b13..f1cf994a 100644 --- a/README.md +++ b/README.md @@ -2,23 +2,13 @@ This repository contains training, generation and utility scripts for Stable Dif ## Updates -- January 14, 2023, 2023/1/14 - - Fix loading some VAE or .safetensors as VAE is failed for ``--vae`` option. Thanks to Fannovel16! - - Add negative prompt scaling for ``gen_img_diffusers.py`` You can set another conditioning scale to the negative prompt with ``--negative_scale`` option, and ``--nl`` option for the prompt. Thanks to laksjdjf! - - ``--vae`` オプションに一部のVAEや .safetensors 形式のモデルを指定するとエラーになる不具合を修正しました。Fannovel16氏に感謝します。 - - ``gen_img_diffusers.py`` に、ネガティブプロンプトに異なる guidance scale を設定できる ``--negative_scale`` オプションを追加しました。プロンプトからは ``--nl`` で指定できます。laksjdjf氏に感謝します。 -- January 12, 2023, 2023/1/12 - - Metadata is saved on the model (.safetensors only) (model name, VAE name, training steps, learning rate etc.) The metadata will be able to inspect by sd-webui-additional-networks extension in near future. If you do not want to save it, specify ``no_metadata`` option. - - メタデータが保存されるようになりました( .safetensors 形式の場合のみ)(モデル名、VAE 名、ステップ数、学習率など)。近日中に拡張から確認できるようになる予定です。メタデータを保存したくない場合は ``no_metadata`` オプションをしてしてください。 - -**January 9, 2023: Important information about the update can be found at [the end of the page](#updates-jan-9-2023).** - -**20231/1/9: 更新情報が[ページ末尾](#更新情報-202319)にありますのでご覧ください。** - -[日本語版README](./README-ja.md) +Please read [release version 0.3.0](https://github.com/kohya-ss/sd-scripts/releases/tag/v0.3.0) for recent updates. +最近の更新情報は [release version 0.3.0](https://github.com/kohya-ss/sd-scripts/releases/tag/v0.3.0) をご覧ください。 ## +[日本語版README](./README-ja.md) + For easier use (GUI and PowerShell scripts etc...), please visit [the repository maintained by bmaltais](https://github.com/bmaltais/kohya_ss). Thanks to @bmaltais! This repository contains the scripts for: @@ -125,79 +115,3 @@ The majority of scripts is licensed under ASL 2.0 (including codes from Diffuser [bitsandbytes](https://github.com/TimDettmers/bitsandbytes): MIT [BLIP](https://github.com/salesforce/BLIP): BSD-3-Clause - - -# Updates: Jan 9. 2023 - -All training scripts are updated. - -## Breaking Changes - -- The ``fine_tuning`` option in ``train_db.py`` is removed. Please use DreamBooth with captions or ``fine_tune.py``. -- The Hypernet feature in ``fine_tune.py`` is removed, will be implemented in ``train_network.py`` in future. - -## Features, Improvements and Bug Fixes - -### for all script: train_db.py, fine_tune.py and train_network.py - -- Added ``output_name`` option. The name of output file can be specified. - - With ``--output_name style1``, the output file is like ``style1_000001.ckpt`` (or ``.safetensors``) for each epoch and ``style1.ckpt`` for last. - - If ommitted (default), same to previous. ``epoch-000001.ckpt`` and ``last.ckpt``. -- Added ``save_last_n_epochs`` option. Keep only latest n files for the checkpoints and the states. Older files are removed. (Thanks to shirayu!) - - If the options are ``--save_every_n_epochs=2 --save_last_n_epochs=3``, in the end of epoch 8, ``epoch-000008.ckpt`` is created and ``epoch-000002.ckpt`` is removed. - -### train_db.py - -- Added ``max_token_length`` option. Captions can have more than 75 tokens. - -### fine_tune.py - -- The script now works without .npz files. If .npz is not found, the scripts get the latents with VAE. - - You can omit ``prepare_buckets_latents.py`` in preprocessing. However, it is recommended if you train more than 1 or 2 epochs. - - ``--resolution`` option is required to specify the training resolution. -- Added ``cache_latents`` and ``color_aug`` options. - -### train_network.py - -- Now ``--gradient_checkpointing`` is effective for U-Net and Text Encoder. - - The memory usage is reduced. The larger batch size is avilable, but the training speed will be slow. - - The training might be possible with 6GB VRAM for dimension=4 with batch size=1. - -Documents are not updated now, I will update one by one. - -# 更新情報 (2023/1/9) - -学習スクリプトを更新しました。 - -## 削除された機能 -- ``train_db.py`` の ``fine_tuning`` は削除されました。キャプション付きの DreamBooth または ``fine_tune.py`` を使ってください。 -- ``fine_tune.py`` の Hypernet学習の機能は削除されました。将来的に``train_network.py``に追加される予定です。 - -## その他の機能追加、バグ修正など - -### 学習スクリプトに共通: train_db.py, fine_tune.py and train_network.py - -- ``output_name``オプションを追加しました。保存されるモデルファイルの名前を指定できます。 - - ``--output_name style1``と指定すると、エポックごとに保存されるファイル名は``style1_000001.ckpt`` (または ``.safetensors``) に、最後に保存されるファイル名は``style1.ckpt``になります。 - - 省略時は今までと同じです(``epoch-000001.ckpt``および``last.ckpt``)。 -- ``save_last_n_epochs``オプションを追加しました。最新の n ファイル、stateだけ保存し、古いものは削除します。(shirayu氏に感謝します。) - - たとえば``--save_every_n_epochs=2 --save_last_n_epochs=3``と指定した時、8エポック目の終了時には、``epoch-000008.ckpt``が保存され``epoch-000002.ckpt``が削除されます。 - -### train_db.py - -- ``max_token_length``オプションを追加しました。75文字を超えるキャプションが使えるようになります。 - -### fine_tune.py - -- .npzファイルがなくても動作するようになりました。.npzファイルがない場合、VAEからlatentsを取得して動作します。 - - ``prepare_buckets_latents.py``を前処理で実行しなくても良くなります。ただし事前取得をしておいたほうが、2エポック以上学習する場合にはトータルで高速です。 - - この場合、解像度を指定するために``--resolution``オプションが必要です。 -- ``cache_latents``と``color_aug``オプションを追加しました。 - -### train_network.py - -- ``--gradient_checkpointing``がU-NetとText Encoderにも有効になりました。 - - メモリ消費が減ります。バッチサイズを大きくできますが、トータルでの学習時間は長くなるかもしれません。 - - dimension=4のLoRAはバッチサイズ1で6GB VRAMで学習できるかもしれません。 - -ドキュメントは未更新ですが少しずつ更新の予定です。