FunASR
FunASR copied to clipboard
A Fundamental End-to-End Speech Recognition Toolkit and Open Source SOTA Pretrained Models, Supporting Speech Recognition, Voice Activity Detection, Text Post-processing etc.
 官方提供的文件较小的可以进行分析,然后传递一个几百MB的视频一直报错,想知道怎么解决
[4090c] 2023-11-23 05:36:47,586 (build_trainer:153) INFO: The training was resumed using /home/cnhis/whyme/FunASR/egs_modelscope/asr/TEMPLATE/checkpoint/checkpoint.pb [4090c] 2023-11-23 05:36:47,604 (build_trainer:260) INFO: 4/100epoch started [4090c] 2023-11-23 05:36:50,002 (build_trainer:302) INFO: 4epoch results: [train] time=2.05 seconds, total_count=0, gpu_max_cached_mem_GB=1.723,...
微调模型后,加载./checkout微调输出目录下模型,无推理结果,用训练集测试也无结果。code如下: infer_params = {} infer_params["model_dir"] = "/workspace/asr/FunASR/egs_modelscope/asr_vad_punc/speech_paraformer-large-vad-punc_asr_nat-zh-cn-16k-common-vocab8404-pytorch/checkpoint" infer_params["decoding_model_name"] = "10epoch.pb" infer_params["test_data_dir"] = "/workspace/asr/FunASR/egs_modelscope/asr_vad_punc/speech_paraformer-large-vad-punc_asr_nat-zh-cn-16k-common-vocab8404-pytorch/data/validation" modelscope_infer(infer_params)
python envs: ``` funasr==0.7.4 modelscope==1.9.2 torch==1.13.1+cpu ``` error details is as follow, it happed when multiple clients access the server simultaneously;Also tried funasr==0.7.6 and met same error: ` res =...
多机多卡finetune paraformer模型,报错  训练脚本为: 
如何反馈问题
为了更高效地解决您的问题,请按照以下步骤描述您的问题: 1、提供一个清晰而简明的问题描述,并附上您所遵循的文档链接。 2、指明问题出现的环境,包括操作系统(如Windows、Linux、macOS)和相关软件版本(如Python、Torch、Funasr、Modelscope)。 3、解释您已经采取的解决步骤。 4、包括与问题相关的任何错误信息或截图。 5、如果您在网上搜索过解决方案,请分享您找到的任何结论或潜在解决方案。 6、最后,请提出任何具体的方向或领域,以便进行进一步调查,以帮助解决问题。 通过按照这些步骤提供详细信息,我们可以更高效地共同努力解决您的问题。
To efficiently resolve your issue, please follow the steps below to describe your problem: 1、Provide a clear and concise description of the problem, along with the documentation link you are...
linux下,ubuuntu20.04版本,funasr=0.8.2,python=3.9,modelscope=1.9.4,使用4090跑的,41分钟的一段16k比特率的语音跑了十分钟依然显示还在解码没跑完,页面没提示报错,这个速度不太对吧?测试代码如下: from modelscope.pipelines import pipeline from modelscope.utils.constant import Tasks inference_pipeline_1 = pipeline(task=Tasks.auto_speech_recognition, model='damo/speech_UniASR_asr_2pass-cn-dialect-16k-vocab8358-tensorflow1-offline') import time start_time = time.time() wav_name = "./2023110700000485.wav" rec_result = inference_pipeline_1(audio_in = wav_name) print("rec_result",rec_result) #print("识别结果------",rec_result["text"]) end_time =...
同一个数据集,damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-online模型转onnx后的识别结果比原始模型的识别结果高,大约1%z左右,不知是什么原因