chenchen
chenchen
Thank you very much. I didn't use LM now, and I will try it.
可以提供一些模型训练时候的conf.yaml参数设置吗?谢谢
我想请问下,我在aishell170小时上训练了deep biasing的模型,但是在解码的时候如果设置deep biasing,会出现很多的漏字现象,这个会是什么原因呀?
> > 我想请问下,我在aishell170小时上训练了deep biasing的模型,但是在解码的时候如果设置deep biasing,会出现很多的漏字现象,这个会是什么原因呀? > > 漏字的现象很严重吗,使用的热词列表大小多大?我这边也有做过aishell1的实验,结果比较正常,没有观察到漏字的现象 很严重,就是一段一段的漏,原始设置的热词表大小是187,modelscope上开源的热词测试集,然后是设置了context_filtering参数进行过滤,如果过滤后热词表只有【0】的话,基本上就整句话漏了,如果是有热词的情况,也会出现成片漏掉的情况,设置的deep_score=1,filter_threshold=-4。目前训练迭代了17个epoch,loss_bias在10左右
> > > > 我想请问下,我在aishell170小时上训练了deep biasing的模型,但是在解码的时候如果设置deep biasing,会出现很多的漏字现象,这个会是什么原因呀? > > > > > > > > > 漏字的现象很严重吗,使用的热词列表大小多大?我这边也有做过aishell1的实验,结果比较正常,没有观察到漏字的现象 > > > > > > 很严重,就是一段一段的漏,原始设置的热词表大小是187,modelscope上开源的热词测试集,然后是设置了context_filtering参数进行过滤,如果过滤后热词表只有【0】的话,基本上就整句话漏了,如果是有热词的情况,也会出现成片漏掉的情况,设置的deep_score=1,filter_threshold=-4 > > 那确实很奇怪,总体loss的情况正常吗,正常情况下收敛到差不多的时候,bias loss应该是和ctc loss差不多,总体的loss应该会比没有训练热词模块之前更低一些,在aishell上大概是3.4左右。你用的热词相关的yaml配置是否都和我上面给出的一致 目前训练出来整体的loss还算是正常,从3.1下降到了2.5,bias...
> I found rename ‘config.yaml’ can solve the problem “Key not in FairseqConfig” . However , I happen a new problem: Omegaconf.errors.ConfigAttributeError: key 'checkpoint' is not in struct. Then I...
> Hi, confirming the packages I have: > > omegaconf 2.3.0 pyhd8ed1ab_0 conda-forge fairseq 0.12.3 py38h668f88f_3 conda-forge hydra-core 1.3.0 pypi_0 pypi > > I when installing fairseq editable I was...
可是我用这个转换后的模型,离线解码效果和wenet模型的效果是一致的
发现微调后的模型如果word_timestamp设为True,不仅效果就很差,而且推理速度也会变慢,如果设为False,效果和推理速度都不会有影响
who can help me? Thank you very much