linshoubiao
linshoubiao
OS: e.g. linux Python/C++ Version:3.8.18 Package Version:pytorch、torchaudio、modelscope、funasr version(pip list) torch 2.0.1 torchaudio 2.0.2 modelscope 1.9.4 funasr 0.8.2 Model:speech_paraformer-large-vad-punc_asr Command: Details: 其中 --model文件目录是原始的预训练模型路径,其中的model.pb 是微调后19epoch.pb靠过来改成model.pb的 def modelscope_infer(args): os.environ['CUDA_VISIBLE_DEVICES'] = str(args.gpuid) inference_pipeline =...
原始得预训练模型是在huggingface上[hezhaoqia](https://huggingface.co/hezhaoqia) / [speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch](https://huggingface.co/hezhaoqia/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch)下得。 微调过程中loss已经很低了,使用部分训练集合进行测试,没有输出,results = speech2text(**batch)中间结果全为 funasr代码版本为dev_bat_modelscope