Files
Kohya-ss-sd-scripts/docs/train_ti_README-zh.md
Gang Li 1f9c19c0f2 Create train_ti_README-zh.md
Create train_ti_README-zh.md
2023-12-06 11:05:03 +08:00

5.9 KiB
Raw Blame History

有关 Textual Inversion 的学习说明。

请同时查看共同文档

在实施过程中,我大量参考了 https://github.com/huggingface/diffusers/tree/main/examples/textual_inversion

训练后的模型也可以直接在 Web UI 中使用。

学习步骤

请先参考此存储库的 README进行环境设置。

准备数据

请参阅准备训练数据

执行训练

使用 train_textual_inversion.py 进行学习。以下是命令行的示例DreamBooth 方法)。

accelerate launch --num_cpu_threads_per_process 1 train_textual_inversion.py 
    --dataset_config=<在数据准备中创建的.toml文件> 
    --output_dir=<学习模型的输出目录>  
    --output_name=<学习模型输出时的文件名> 
    --save_model_as=safetensors 
    --prior_loss_weight=1.0 
    --max_train_steps=1600 
    --learning_rate=1e-6 
    --optimizer_type="AdamW8bit" 
    --xformers 
    --mixed_precision="fp16" 
    --cache_latents 
    --gradient_checkpointing
    --token_string=mychar4 --init_word=cute --num_vectors_per_token=4

--token_string 用于指定训练时的标记字符串。在训练时,请确保提示包含此字符串(如果 token_string 是 mychar4则例如为mychar4 1girl)。提示中此字符串的部分将被替换为 Textual Inversion 的新标记进行训练。对于 DreamBooth作为类+标识符形式的数据集,将 token_string 设置为标记字符串是最简单且最可靠的方法。

通过使用 --debug_dataset您可以查看提示中的标记字符串是否被替换为后续的token id例如您可以通过检查是否存在从 49408 开始的token来确认提示中是否包含标记字符串。

input ids: tensor([[49406, 49408, 49409, 49410, 49411, 49412, 49413, 49414, 49415, 49407,
         49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407,
         49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407,
         49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407,
         49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407,
         49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407,
         49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407, 49407,
         49407, 49407, 49407, 49407, 49407, 49407, 49407]])

tokenizer已经包含的单词通常的单词不能使用。

--init_word 在初始化嵌入时,指定用于复制源标记的字符串。最好选择与要学习的概念相近的单词。不能指定两个或更多标记的字符串。

--num_vectors_per_token 指定在这次学习中使用多少标记。标记越多,表达力越强,但相应地会消耗更多的标记。例如,如果 num_vectors_per_token=8则指定的标记字符串将消耗通常限制为77个标记的8个标记。

以上是用于Textual Inversion的主要选项。之后的步骤与其他学习脚本相似。

通常建议将 num_cpu_threads_per_process 设置为1。

pretrained_model_name_or_path 指定要进行追加训练的原始模型。可以指定Stable Diffusion的checkpoint文件.ckpt或.safetensors、Diffusers的本地模型目录或Diffusers的模型ID例如"stabilityai/stable-diffusion-2"等)

output_dir 中指定保存经过学习后的模型的文件夹。在 output_name 中指定模型文件的名称,不包括扩展名。使用 save_model_as 选项指定以safetensors格式保存。

dataset_config 中指定 .toml文件。最初,为了减少内存消耗,将文件内的批处理大小设置为 1

设置训练步数 max_train_steps 为10000。学习率 learning_rate 在这里设置为5e-6。

为了节省内存,指定 mixed_precision="fp16"(在 RTX30 系列及更高版本中,也可以指定为 bf16。请与环境设置时的 accelerate 设置保持一致)。同时指定 gradient_checkpointing

为了使用内存消耗较少的 8 位 AdamW 优化器(将模型优化为与学习数据匹配),指定 optimizer_type="AdamW8bit"

指定 xformers 选项,并使用 xformers 的 CrossAttention。如果未安装 xformers 或发生错误(取决于环境,例如 mixed_precision="no" 的情况),则可以指定 mem_eff_attn 选项,这将使用内存省略版本的 CrossAttention速度较慢

如果有足够的内存,请编辑 .toml 文件,将批处理大小增加到例如 8 左右(可能提高速度和精度)。

常用选项说明

请在以下情况下参考选项文档。

  • Stable Diffusion 2.x 或从其派生的模型的训练
  • 训练前提条件为 clip skip 大于2的模型
  • 训练超过75个标记的描述

关于 Textual Inversion 的批处理大小

由于相对于整个模型的训练(如 DreamBooth 或微调),内存使用量较少,因此批处理大小可以设置得较大。

Textual Inversion 的其他主要选项

有关所有选项的详细信息,请参阅其他文档。

  • --weights
    • 在训练之前加载预训练的嵌入,并在此基础上进行微调训练。
  • --use_object_template
    • 不使用文本描述,而是使用默认的对象模板字符串(例如a photo of a {})进行训练。与官方实现相同。将忽略文本描述。
  • --use_style_template
    • 不使用文本描述,而是使用默认的样式模板字符串(例如a painting in the style of {})进行训练。与官方实现相同。将忽略文本描述

在此代码库中使用的图像生成脚本进行生成。

在 gen_img_diffusers.py 中,请使用 --textual_inversion_embeddings 选项指定训练的embeddings文件可以指定多个。在提示中使用embeddings文件的文件名不包括扩展名以应用该embeddings。