CHING-YUN, YAO

Results 4 comments of CHING-YUN, YAO

> > 您好,想请教一下关于训练的问题。 > > 根据论文所说,您是训练至 50w iterations,但我目前遇到一个问题就是我大概在 15w 前 L1 都是 0.03x 以下,val 时的结果图还没那么好但有大致的轮廓,但越往后训练越不好,L1 升至 0.05 左右,并且 val 时生成的图形有残缺或是少了某个部首。 > > 因为我在训练 LF-Font 时也有遇到类似问题,不知道是不是我的资料集比较难训练,还是有地方忽略了,但我是根据您 README 上的教学和预设的 hyper-parameters 去训练的。 >...

这是针对46w iter 的 seen font seen char 的 validation 结果,可以看到有几个字是残破的或是有一些污点 ![0460000-comparable_sfsu_](https://user-images.githubusercontent.com/50935152/199886393-39139b03-833f-437b-9848-6eecb21475e3.png) 另外 30w iter 也是一样的 ![0300000-comparable_sfsu_](https://user-images.githubusercontent.com/50935152/199886814-24004c82-d720-4ef1-b5dc-4197af4785ef.png) 如果是过拟合,请问我有什么技巧可以解决这个问题吗? 像是调整参数之类的处理有办法解决吗? 还是就只能多保存一些模型,然后慢慢去试哪个 iter 会比较好? 另外我有注意到您的 LF-Font 生成结果是很正常的,不知道您有没有对其调整过一些参数呢? 谢谢!!

> 这是训练集还是测试集?训练集上拟合ok嘛? 这是针对在训练集上模型看过的字所产生的图片,所以照理来说模型应该要生成的不错。 从 15w 后,L1 其实就蛮稳定,从 0.051 慢慢降至目前 46w 在 0.046 左右。 > 有两个解决方案,一个是减少font classifier loss的权重,这个loss有时候会抽风。一个就是加大训练集的字符数量,因为字符 数量少了,对于模型来说很多字没见过,让他去预测剩余大量没见过的字也会有问题。 请问这个 loss 是可以从 cfg 去修改的吗? 加大数量可能是没办法,因为我当初其实是用 ttf 转出 png,取所有 font 的可用字交集取出这些字的

> cfg里default.yaml把gan_w调小点。 好! 我再试试看,谢谢您的帮助!