AliothChen

Results 3 comments of AliothChen

对于Wan2.1-1.3B,frame=81, (h,w)=(480, 832), 如果不添加lora,额外在DiTBlock里面添加一些module,在开源数据集上训练,最终收敛的running_mean_loss大致是多少呢? For Wan2.1-1.3B, set frame=81, (h,w)=(480, 832), if adding no lora, but add additional modules in each DiTBlock, while trained on open-source datasets, what will the running...

> > 对于wan2.1,在一些开源video-caption数据集上,比如vidgen,koala36m,大概最终的runnning_mean_loss是多少呢 For wan2.1 trained on open-source datasets such as vidgen and koala36m using lora, what is the ultimate running_mean_loss? > > 我训练lora 10多个视频那种 可以到0.03-0.06 数字人视频也是 大致在这个范围波动 感谢!您有没有尝试使用更大数据量,训练lora+wan1.3B呢

> 一样的 收敛都在这个数值附近 我用了一万个左右的样本 > […](#) 感谢,请问您使用1w个视频大概训练多少个epoch可以收敛呢,学习率是1e-4吗