wwfcnu
wwfcnu
想问下这个长音频版speech_paraformer-large-vad-punc_asr_nat-zh-cn-16k-common-vocab8404模型集成了asr、vad、punc,这里集成的asr就是speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch吗,还是说不是一个asr模型
训练后的模型大小是2.7G,比原始的模型要大好多,我看有人说是用avg, 但是我训练完我没有的到avg相关的模型文件
> 调下acoustic scale > […](#) 调节acoustic scale和length_penalty都有改善,这里优先调节哪一个合适呢
调节acoustic scale和length_penalty之后,解码有时候会出现重复的字
调节length_penalty=-5.0,掉字也会减少
这里面有一个问题就是sensevoice的建模单元中没有blank,这个怎么解决
另外就是我想改动batch_size=64,修改哪个参数 batch_size_s=300和batch_size是啥关系
我推理的时候,显存不断增加,然后过一段时间就oom了,我设置的batch_size很小,数据也是10s左右的。
这个转写服务用的onnx模型怎么都是量化后的模型
> > 有人解决这个吗? > > 参考以下命令(镜像使用registry.cn-hangzhou.aliyuncs.com/funasr_repo/funasr:funasr-runtime-sdk-online-cpu-0.1.12): > > 服务端: > > `./funasr-wss-server-2pass --download-model-dir /workspace/models --vad-dir damo/speech_fsmn_vad_zh-cn-16k-common-onnx --model-dir damo/SenseVoiceSmall-onnx --online-model-dir damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-online-onnx --punc-dir damo/punc_ct-transformer_zh-cn-common-vad_realtime-vocab272727-onnx --lm-dir damo/speech_ngram_lm_zh-cn-ai-wesp-fst --itn-dir thuduj12/fst_itn_zh --certfile 0 --decoder-thread-num 96`...