MNN
MNN copied to clipboard
鲲鹏920支持fp16,yolov8模型使用fp16模型相比fp32速度没提升
Github版本: 2.8.1
编译方式:
模型转换: mnnconvert --fp16 -f ONNX --modelFile yolov8n.onnx --MNNModel yolov8n_fp16.mnn --bizCode biz
推理时打印日志:The device support i8sdot:1, support fp16:1, support i8mm: 1
问题:使用fp16模型+鲲鹏920(支持fp16),速度和fp32一样。 MNN怎么启用fp16?