Omg-ciTy

Results 3 comments of Omg-ciTy

在Web UI界面中设置了`unet_lr=0.1`,但在训练开始后学习率仍然是1.0。这很可能是参数传递流程中的问题。我们需要检查参数从Web UI到训练脚本的传递过程。 ### 问题分析 根据代码,学习率参数的处理流程如下: 1. **用户界面层**:用户在Web UI中设置`unet_lr=0.1` 2. **参数解析层**:`argparse`解析参数 3. **优化器创建层**:`get_optimizer`函数使用参数创建优化器 问题可能出现在参数解析层或优化器创建层。 ### 解决方案 #### 1. 检查参数解析流程 在参数解析部分,我们需要确保`unet_lr`参数被正确解析并传递: ```python # 在参数解析部分,确保有unet_lr参数的定义 parser.add_argument("--unet_lr", type=float, default=None, help="learning rate for U-Net...

https://yuanbao.tencent.com/bot/app/share/chat/BXaFuK2Q22F8 我准备使用 kohya_ss训练LORA ,训练的图片是真实化的图片,使生成的图片真实化.训练图片有75张.正则化图像有1800张.要求使训练出来的微调模型生成的任何图片具有超真实化的风格. 使用的底膜是noobai模型以 SDXL 为模型架构,以 Illustrious-xl-early-release-v0 为基础模型,在完整的 Danbooru 和 e621 数据集(共约 13,000,000 张图像)上训练了大量轮次,具有丰富的知识和出色的性能。NoobAI-XL 具有庞大的知识量,能够还原上万名二次元角色及画师风格,认识二次元中的大量特殊概念,并具有丰富的 furry 知识。 model_train_type = "sdxl-lora" pretrained_model_name_or_path = "/root/autodl-fs/E11.safetensors" train_data_dir = "/root/autodl-fs/train/RE7/" reg_data_dir = "/root/autodl-fs/train/ZHENGZEH-RE/"...