Merge branch 'main' into dev

This commit is contained in:
Kohya S
2024-06-23 14:11:51 +09:00
3 changed files with 14 additions and 3 deletions

View File

@@ -265,6 +265,12 @@ https://github.com/kohya-ss/sd-scripts/pull/1290) frodo821 氏に感謝します
- `gen_imgs.py` のプロンプトオプションに、保存時のファイル名を指定する `--f` オプションを追加しました。また同スクリプトで Diffusers ベースのキーを持つ LoRA の重みに対応しました。 - `gen_imgs.py` のプロンプトオプションに、保存時のファイル名を指定する `--f` オプションを追加しました。また同スクリプトで Diffusers ベースのキーを持つ LoRA の重みに対応しました。
### Jun 23, 2024 / 2024-06-23:
- Fixed `cache_latents.py` and `cache_text_encoder_outputs.py` not working. (Will be included in the next release.)
- `cache_latents.py` および `cache_text_encoder_outputs.py` が動作しなくなっていたのを修正しました。(次回リリースに含まれます。)
### Apr 7, 2024 / 2024-04-07: v0.8.7 ### Apr 7, 2024 / 2024-04-07: v0.8.7
- The default value of `huber_schedule` in Scheduled Huber Loss is changed from `exponential` to `snr`, which is expected to give better results. - The default value of `huber_schedule` in Scheduled Huber Loss is changed from `exponential` to `snr`, which is expected to give better results.

View File

@@ -16,8 +16,7 @@ from library.config_util import (
ConfigSanitizer, ConfigSanitizer,
BlueprintGenerator, BlueprintGenerator,
) )
from library.utils import setup_logging from library.utils import setup_logging, add_logging_arguments
setup_logging() setup_logging()
import logging import logging
@@ -25,6 +24,7 @@ logger = logging.getLogger(__name__)
def cache_to_disk(args: argparse.Namespace) -> None: def cache_to_disk(args: argparse.Namespace) -> None:
setup_logging(args, reset=True)
train_util.prepare_dataset_args(args, True) train_util.prepare_dataset_args(args, True)
# check cache latents arg # check cache latents arg
@@ -97,6 +97,7 @@ def cache_to_disk(args: argparse.Namespace) -> None:
# acceleratorを準備する # acceleratorを準備する
logger.info("prepare accelerator") logger.info("prepare accelerator")
args.deepspeed = False
accelerator = train_util.prepare_accelerator(args) accelerator = train_util.prepare_accelerator(args)
# mixed precisionに対応した型を用意しておき適宜castする # mixed precisionに対応した型を用意しておき適宜castする
@@ -176,6 +177,7 @@ def cache_to_disk(args: argparse.Namespace) -> None:
def setup_parser() -> argparse.ArgumentParser: def setup_parser() -> argparse.ArgumentParser:
parser = argparse.ArgumentParser() parser = argparse.ArgumentParser()
add_logging_arguments(parser)
train_util.add_sd_models_arguments(parser) train_util.add_sd_models_arguments(parser)
train_util.add_training_arguments(parser, True) train_util.add_training_arguments(parser, True)
train_util.add_dataset_arguments(parser, True, True, True) train_util.add_dataset_arguments(parser, True, True, True)

View File

@@ -16,12 +16,13 @@ from library.config_util import (
ConfigSanitizer, ConfigSanitizer,
BlueprintGenerator, BlueprintGenerator,
) )
from library.utils import setup_logging from library.utils import setup_logging, add_logging_arguments
setup_logging() setup_logging()
import logging import logging
logger = logging.getLogger(__name__) logger = logging.getLogger(__name__)
def cache_to_disk(args: argparse.Namespace) -> None: def cache_to_disk(args: argparse.Namespace) -> None:
setup_logging(args, reset=True)
train_util.prepare_dataset_args(args, True) train_util.prepare_dataset_args(args, True)
# check cache arg # check cache arg
@@ -99,6 +100,7 @@ def cache_to_disk(args: argparse.Namespace) -> None:
# acceleratorを準備する # acceleratorを準備する
logger.info("prepare accelerator") logger.info("prepare accelerator")
args.deepspeed = False
accelerator = train_util.prepare_accelerator(args) accelerator = train_util.prepare_accelerator(args)
# mixed precisionに対応した型を用意しておき適宜castする # mixed precisionに対応した型を用意しておき適宜castする
@@ -171,6 +173,7 @@ def cache_to_disk(args: argparse.Namespace) -> None:
def setup_parser() -> argparse.ArgumentParser: def setup_parser() -> argparse.ArgumentParser:
parser = argparse.ArgumentParser() parser = argparse.ArgumentParser()
add_logging_arguments(parser)
train_util.add_sd_models_arguments(parser) train_util.add_sd_models_arguments(parser)
train_util.add_training_arguments(parser, True) train_util.add_training_arguments(parser, True)
train_util.add_dataset_arguments(parser, True, True, True) train_util.add_dataset_arguments(parser, True, True, True)