FunASR
FunASR copied to clipboard
端侧化,paraformer转RK框架,跪求fp16模型或者finetune训练方案
背景:我在探索paraformer在端侧上部署方法,我希望通过RK框架调用NPU进行推理。RK框架只支持fp16精度的模型进行推理。 FP16的表示范围[-65504 ~ 66504],FP32表示范围[-3.4×10^{38},3.4×10^{38}],因此FP32模型直接转RK模型,在推理过程中会出现溢出(NAN)。
我采用了FUNASR教程:https://github.com/alibaba-damo-academy/FunASR/blob/v0.8.8/funasr/export/README.md ,进行INT8量化,然而该方案是动态量化,在真正计算时仍会逆量化为fp32。 问题:
请问是否有真正的fp16模型或者finetune训练方案?
Maybe you could ref to this code: https://github.com/alibaba-damo-academy/FunASR/commit/33f2d469a6574a57e18fe77aef2c98549273169a