Licheng Tang
Licheng Tang
> 这是针对46w iter 的 seen font seen char 的 validation 结果,可以看到有几个字是残破的或是有一些污点  > > 另外 30w iter 也是一样的  > > 如果是过拟合,请问我有什么技巧可以解决这个问题吗? 像是调整参数之类的处理有办法解决吗? 还是就只能多保存一些模型,然后慢慢去试哪个 iter 会比较好? 另外我有注意到您的 LF-Font 生成结果是很正常的,不知道您有没有对其调整过一些参数呢? 谢谢!!...
> > 这是训练集还是测试集?训练集上拟合ok嘛? > > 这是针对在训练集上模型看过的字所产生的图片,所以照理来说模型应该要生成的不错。 从 15w 后,L1 其实就蛮稳定,从 0.051 慢慢降至目前 46w 在 0.046 左右。 > > > 有两个解决方案,一个是减少font classifier loss的权重,这个loss有时候会抽风。一个就是加大训练集的字符数量,因为字符 > > 数量少了,对于模型来说很多字没见过,让他去预测剩余大量没见过的字也会有问题。 > > 请问这个 loss 是可以从...
> What should be put for arguments --content_font and --img_path? Is this content_font the same directory as the content_font in build_datasets/build_trainset.sh? Should the directory contains the training content words images?...
> What do you mean by reference images of a font? Words of fonts in train_font in build_trainset.sh? Also, is it normal to have the "charlist" of the content font...
> 您好,我现在对您的工作非常感兴趣,但是我们没有找到合适的数据集,请问可以分享下您的数据集吗? 我们用的数据集就是方正公开的数据集,可以从这里自行下载https://www.foundertype.com/index.php/FindFont/index
> 100个字不包括所有组件,只是这100字包括的组件可以cover 3396个常用汉字。因为很多组件出现在了生僻字内,我们没有对这些生僻字做mapping
> > > > > > > > > 100个字不包括所有组件,只是这100字包括的组件可以cover 3396个常用汉字。因为很多组件出现在了生僻字内,我们没有对这些生僻字做mapping > > 这100个字的选择范围是什么呢?是只在训练集中的2896个汉字中挑选?还是在整个数据集的3396个汉字中挑选? 再3396的数据集外挑选100字,这100字可以cover包括训练集的2896 + 测试集的500。总汉字是3396 + 100 = 3496。100refernce不算训练集,我们不考虑reference字推理自己的情况。当然你可以自己挑选训练集和reference集
>   > > 在config这个函数中它一直显示key是我config_paths的头一个字母,并且一直报错,望大牛解惑 大概是缺了换行符 “\”, 你在"cfgs/defaults.yaml", 后面加上看看
> 您好! 非常感谢您能够公开这项工作的代码,你的这篇论文观点非常新颖 ,对我的帮助很大!现在关于数据集我有一些问题:请问在前期准备数据集的过程中,除了需要自己制作两个json文件之外,还需要准备其他的文件吗?关于content-reference mapping那部分我不是很明白,这部分还需要额外制作一个dict吗?还是这个过程已经包括在了./build_dataset/build_meta4train.py这部分代码中? 希望您能够解答,不胜感谢! 是的,需要自己制作一个dict