Licheng Tang
Licheng Tang
Same problem when i train ControlNet。If i understand correctly, PL ddp is not suitable for those finetuneing task like SD, Lora or controlnet?
那就说明你测试集里有和训练集非常相似的字体
sry for the late reply. Could you post some training results?
可以看一下dataset_transformer文件里的 sample pair style函数,把try except去掉看看,可能在这里死循环了。
>  注释了以后有如上错误 这说明数据做错了,lmdb里没有你索引的字体中的某个字。可以check一下
1. unseen fonts是代表没见过的字体。 2. ids也是一个可以用的分解表,它相比lffont的分解表更加细致,部首种类更多。不同的分解表对结果会有影响 3. 是的,这个网站提供的是一系列字的轨迹,你可以用python画成线图。content font没有特别的要求,任意一个标准的字体都可以做content 4. 本文是全监督的。fewshot只体现在inference的时候
it is the step_size of the Stepdecay in optimizer.
see the line 126 in train.py
> 您好,想请教一下关于训练的问题。 > > 根据论文所说,您是训练至 50w iterations,但我目前遇到一个问题就是我大概在 15w 前 L1 都是 0.03x 以下,val 时的结果图还没那么好但有大致的轮廓,但越往后训练越不好,L1 升至 0.05 左右,并且 val 时生成的图形有残缺或是少了某个部首。 > > 因为我在训练 LF-Font 时也有遇到类似问题,不知道是不是我的资料集比较难训练,还是有地方忽略了,但我是根据您 README 上的教学和预设的 hyper-parameters 去训练的。 > >...
> 其实都没有正确的提取风格,越往后训练有提取出越接近r 残缺的case能给一个看看不。一开始l1loss低是正常的。生成图片都是平均字,没什么特征,因为一个batch比较大,平均字能使loss最快减小。后期开始学习局部特征了,我理解validation set破碎大概率就是过拟合。可以看看30witer的结果,多保存几个模型。