MNN
MNN copied to clipboard
MNN对qat量化的支持情况咨询
我的qat模型通过mnn模型转换之后,量化和反量化算子分别被转换成了FloatToInt8和Int8ToFloat,而conv算子还是float,请问模型推理时是否也是float呢?还是说会进行特殊处理,转换成int8?