logo
31
5
Login
编辑文件 README.md

kohya-ss-SD全量青龙训练器

Bilibili Bilibili Docker

Python Torch CUDA

介绍

基于青龙圣者的kohya-ss-SD训练脚本搭建的一键式云训练,针对Linux部署进行了快速配置。该仓库整合了训练所需的环境以及部分模型,只需要添加你的训练集,简单在终端输入命令即可快速训练。

  • 预装训练模型:
  • NoobAI-XL-v1.1.safetensors
  • NoobAI-XL-Vpred-v1.0.safetensors
  • flux1-dev2pro.safetensors

快速开始

1.1 fork本仓库到你的组织

终端列表

1.2.1 将你的训练集放入 /workspace/train/qinglong/train 目录下:

终端栏新建选择 autounzip

复制你的压缩包路径

按照提示粘贴到 autounzip 终端

检查路径下是否出现完整的训练集素材

1.2.2 使用tagger打标(可选):

如果你的图片未打标,请先打标

终端栏新建选择 tagger

**使用wd-eva02-large-tagger-v3进行打标,这将识别目录下的全部图片(包括子目录)

请确保已经将你的训练集放入 /workspace/train/qinglong/train 目录下

1.3 训练建议:

  • 参数建议:

对于SDXL Lora 的训练,请确认你的训练底模是否使用了Vpred ( 即V预测 )

如果没有使用或未明确说明,请确保train_SDXL_24Glora_Vpre.ps1v_parameterization值设置为0,否则为1

在对应的训练脚本中,只需要修改你训练对应模型的相关参数即可,即训练其他模型的参数可以不用理

如果需要实时检查训练过程,默认已开启输出采样图片 enable_sample1

每2轮将采样图片输出

采样出图的提示词默认为 /workspace/toml/qinglong.txt ,请务必修改内容(支持中英自然语言/短词短语)

  • SDXL Lora训练参数修改:

默认训练最大轮数:max_train_epochs = 32

默认 network_dim = 16 (建议大小:抽象 > 角色,如抽象设置 network_dim128 ,角色一般为 16 / 32

默认 batch_size16, 如果出现显存不足,请修改参数

默认 resolution1024, 1024, 如果与自己的训练集比例不一致,请调整至合适的比例或将 resolution 设置为最恰当的比例

默认模型保存名称 output_namesdxl-qinglong

2.1 开启训练

新建 TrainSelect 终端,并运行:

按照提示,输入数字 1 ~ 10 选择你需要启动的模型训练脚本

按照提示回复确认 Y/Yes/YES/y 一键开启训练。

3.1 训练结果检查

训练输出目录默认为 /workspace/output

如何下载和上传模型

下载模型

提供了2种下载方法:

  • 通过cnb仓库拉取(非常的快):model_downloader/download_from_cnb.ipynb

  • 通过huggingface仓库拉取:model_downloader/训练模型下载.ipynb

上传模型

  • 通过 model_downloader/cnb_pusher/cnb_pusher.ipynb 上传到你的cnb仓库

使用此脚本请熟悉Git操作,请确保vscode自带的git界面没有进行任何操作,否则分支混乱,了解后删除此行运行

终端列表

选择notebook内核

终端列表

选择内核环境

终端列表

选择虚拟环境

终端列表

使用hfd脚本从抱脸仓库拉取模型,需要新增请自行修改。设置对应值为True,运行后下载。

仓库说明

免责延伸

任何基于本镜像修改或衍生的版本,均与本镜像提供者无关,相关责任由修改者自行承担。