yll3518974

Results 1 issues of yll3518974

我的qat模型通过mnn模型转换之后,量化和反量化算子分别被转换成了FloatToInt8和Int8ToFloat,而conv算子还是float,请问模型推理时是否也是float呢?还是说会进行特殊处理,转换成int8?