liuyutong

Results 5 issues of liuyutong

您好!我想替换您的数据,用10MB左右的训练数据跑。但是每次运行都会显存不够。请问该如何解决呢?

您好,官网上说”提供更复杂、完善和精确的分词和词性标注联合模型Model_3和分词词表“,所以model3可以改善在唐诗、宋诗、宋词上的切分效果吗?

在trainer.py中,在backward结束后,为了输出loss会对total_loss做一个all_reduce的操作,但是并未对crf_loss和gl_loss做all_reduce的操作,为什么在后面gl_loss/=size,crf_loss/=size。我理解的难道是因为在对total_loss做all_reduce时,crf_loss和gl_loss也会做相应的改变吗?希望您可以解释一下,谢谢~

你好,我使用相同的数据集,分别用ppocrv2和ppocrv3来finetune,都加载了各自的预训练模型,可以看到在最开始的step里,ppocrv2 acc 是0.29,而ppocrv3 acc是0。下面的两张图分别是v2和v3的。 ![image](https://user-images.githubusercontent.com/14170291/195490471-b7164397-110a-4554-999c-042bb8d73ba4.png) ![image](https://user-images.githubusercontent.com/14170291/195490492-cd3e4676-3b1a-4db2-9bc1-991c2539de75.png) 但是讲道理v3加载预训练模型之后,在最初的step里acc应该超过v2的才对。所以怀疑是不是v3开源的预训练模型有问题,麻烦check一下,谢谢!

你好,我采用相同的数据集分别训练识别的v2和v3。 1、在训练的过程中,我发现在相同的epoch下,v3的效果没有v2好,无论是train acc还是dev acc,这是正常的嘛?v3的效果要超过v2的话是不是v3需要用的epoch要比v2多?v3的学习率是否需要根据数据集的大小做调整? 2、如果几十万的训练数据,对于v2和v3,各自大约需要跑多少个epoch呢?