Licheng Tang

Results 25 comments of Licheng Tang

Same problem when i train ControlNet。If i understand correctly, PL ddp is not suitable for those finetuneing task like SD, Lora or controlnet?

那就说明你测试集里有和训练集非常相似的字体

sry for the late reply. Could you post some training results?

可以看一下dataset_transformer文件里的 sample pair style函数,把try except去掉看看,可能在这里死循环了。

> ![F 1NKQZB3SGBUE JE}8@B4W](https://user-images.githubusercontent.com/48040139/188275623-665aacb0-37f2-4e19-9b45-94dcf685c0ea.png) 注释了以后有如上错误 这说明数据做错了,lmdb里没有你索引的字体中的某个字。可以check一下

1. unseen fonts是代表没见过的字体。 2. ids也是一个可以用的分解表,它相比lffont的分解表更加细致,部首种类更多。不同的分解表对结果会有影响 3. 是的,这个网站提供的是一系列字的轨迹,你可以用python画成线图。content font没有特别的要求,任意一个标准的字体都可以做content 4. 本文是全监督的。fewshot只体现在inference的时候

it is the step_size of the Stepdecay in optimizer.

see the line 126 in train.py

> 您好,想请教一下关于训练的问题。 > > 根据论文所说,您是训练至 50w iterations,但我目前遇到一个问题就是我大概在 15w 前 L1 都是 0.03x 以下,val 时的结果图还没那么好但有大致的轮廓,但越往后训练越不好,L1 升至 0.05 左右,并且 val 时生成的图形有残缺或是少了某个部首。 > > 因为我在训练 LF-Font 时也有遇到类似问题,不知道是不是我的资料集比较难训练,还是有地方忽略了,但我是根据您 README 上的教学和预设的 hyper-parameters 去训练的。 > >...

> 其实都没有正确的提取风格,越往后训练有提取出越接近r 残缺的case能给一个看看不。一开始l1loss低是正常的。生成图片都是平均字,没什么特征,因为一个batch比较大,平均字能使loss最快减小。后期开始学习局部特征了,我理解validation set破碎大概率就是过拟合。可以看看30witer的结果,多保存几个模型。