yolov5_tensorrt_int8 icon indicating copy to clipboard operation
yolov5_tensorrt_int8 copied to clipboard

yolov5 tensorrt int8量化方法汇总

Results 8 yolov5_tensorrt_int8 issues
Sort by recently updated
recently updated
newest added

Completed parsing of ONNX file Building an engine from file /home/zhaomt/com/yolov5int8/yolov5/yolov5s.onnx; this may take a while... wrong [04/25/2024-17:36:20] [TRT] [E] 1: Unexpected exception _Map_base::at planing----- None Failed to build serialized...

你好,我将qat模型按照export_onnx_qat.py代码转成onnx,然后再利用trtexec --onnx=qat.onnx --saveEngine=qat.engine --int8获得tensorrt模型,发现推理速度反而不如原始模型使用trtexec --onnx=init.onnx --saveEngine=init.engine --fp32速度,不知道是什么原因?

为了方便测试,我参考作者的代码写了一个分类网络的ptq代码,然后在转onnx的时候对输出结果进行了对比,发现差异很大,不知道您这边有没有遇到过这个问题 复现步骤,使用cifar数据集,所以复现很快: 1. python fp32_train.py 2. python ptq.py(注意修改加载模型的路径) [aa.zip](https://github.com/Susan19900316/yolov5_tensorrt_int8/files/14918628/aa.zip)

int8精度损失评估如何像val.py中对FP32和FP16的验证进行操作

请问QAT量化部分的代码和train.py一样,是如何进行量化的呀

是 python --weights xxx --include onnx --dynamic吗,我这样导出的onnx,在ptq中用不了,请问我该如何正确导出准备工作中的onnx

如题,请问在无法固定尺寸的情况下,如何保证获得最好的性能呢?