logo
0
0
Login
ForkfromWANtest250715/Lumina2.0-Lora_Trainer, ahead:main1 commits

Lumina2.0 CNB云端训练仓

个人作品      CNB赋能

感谢 Neta-Lumina 社区 - 奇葩菌 提供魔改秋叶包,支持了Lumina2的训练

快速开始

秋叶训练器:(WebUI界面,小白友好)

1.微信登录,有一个自己的组织,然后Fork本仓库到自己组织

2.点击仓库右上角橙色按钮,启动服务器

3.等待日志加载完毕,然后选择 WEBIDE打开 进入codeserver界面

4.等待几秒钟,秋叶训练器自动启动,点击弹出的浮窗或者终端上面的端口选项进入WebUI

kohya训练器:(命令行运行,功能齐全)

进入WEBIDE

cd /workspace/kohya

修改训练脚本 lumina2.0_train.sh 中的参数,然后运行训练脚本

bash ./lumina2.0_train.sh

青龙包参数设置

参数名中文功能推荐值
$pretrained_model底模路径设定训练所用的基础模型完整路径
$vaeVAE路径VAE模型路径,对某些新模型架构(如Lumina)很重要
$train_data_dir训练数据集路径存放训练图片的文件夹路径
$reg_data_dir正则数据集路径存放正则化图片的文件夹路径,用于防止过拟合根据需要配置
$output_name模型保存名称输出的LoRA模型文件名自定义
$output_dir输出目录所有模型最终保存的文件夹./output
$resolution图片分辨率训练时使用的图像分辨率1024,1024
$batch_size批处理大小一次训练处理的图片数量,根据显存大小调整16G显卡设置为1或2
$max_train_epoches最大训练Epoch整个数据集被完整训练的总轮数10~20
$save_every_n_epochs保存频率每隔N个Epoch保存一次模型1或2
$network_dim网络维度 (Rank)LoRA的"秩",决定模型大小和复杂度4~128
$network_alpha网络AlphaLoRA的缩放因子,用于平衡权重通常为network_dim的一半
$clip_skipClip Skip跳过文本编码器的最后几层,玄学参数2
$seed随机种子用于复现训练过程中的随机结果任意整数
$lr学习率全局学习率,在特定优化器下生效1e-4
$unet_lrU-Net学习率图像部分(U-Net)的学习率无需填写,仅需训练unet
$text_encoder_lr文本编码器学习率文本部分(Text Encoder)的学习率不建议训练te
$lr_scheduler学习率调度器训练中动态调整学习率的策略cosine_with_min_lr
$optimizer_type优化器类型选择更新模型权重的算法AdamW8bit, Prodigy, DAdaptAdam
$gradient_checkpointing梯度检查点开启后节约显存,但会减慢训练速度1 (开启)
$gradient_accumulation_steps梯度累积变相放大batch_size,在低显存下模拟大批量训练2~8
$network_dropout网络Dropout防止过拟合的技术,随机丢弃部分神经元不建议设置
$mixed_precision混合精度使用半精度浮点数进行计算,降低显存消耗fp16 或 bf16(30系以上推荐bf16)
$cache_latents缓存潜变量将图片预处理为潜变量并缓存,加速后续Epoch1 (开启)(建议首次训练开启)
$enable_bucket启用分桶对不同分辨率的图片进行分组处理,无需裁剪1 (开启)(极度推荐)
$enable_lycoris启用LyCORIS开启更高级的LoRA变体(如LoKr, LoHa)训练0 (关闭)(目前疑似不支持)
$enable_block_weights启用分层训练为U-Net的不同层级设置不同的学习率0 (关闭)
$shuffle_caption打乱标签随机打乱caption中的token顺序1 (开启)
$keep_tokens保留前N个token打乱时保留开头的N个词组不参与打乱根据需要设置
$prior_loss_weight正则化权重正则化损失的权重,用于平衡正则图片和训练图1
$caption_prefix标签前缀为所有图片的标签统一添加前缀,如质量词masterpiece, best quality,
$caption_suffix标签后缀为所有图片的标签统一添加后缀,如镜头视角full body,

数据集准备

Neta-Lumina 交流群

居中图片

About

支持Lumina-2.0的Lora训练器(魔改包),以及一个kohya训练器,互相补充

Language
Python97.2%
Shell1.4%
TypeScript0.5%
Perl0.2%
Others0.7%