willer
willer
> @alicera I have not try yet, int8 inference need calib dataset, only build engine is not enough. 大佬,我yolov5的onnx模型做int8量化的时候,是有加入量化数据的,可是还是不出框,你能尝试一下吗?
已解决 
> 请问一下作者,您这个代码的性能能达到什么水平呢?多少fps? 我测了yolov5_deepsort的tensorrt版本,大概15ms一帧
> I haven't tried ResNet-RS. > Since proper training methods and regularization methods depend on tasks and datasets, please try them on your target dataset. Any plans for adding support...
你的OpenCV放到/usr/local目录下吗?
> [ 50%] Building CXX object CMakeFiles/YoloV5sEngine.dir/yolov5s_infer.cc.o > In file included from /usr/local/opencv-3.4.2/include/opencv2/calib3d.hpp:48:0, > from /usr/local/opencv-3.4.2/include/opencv2/opencv.hpp:56, > from /home/wangyuanwen/tensorrt_test/yolov5_tensorrt_int8/yolov5s_infer.cc:6: > /usr/local/opencv-3.4.2/include/opencv2/features2d.hpp:50:10: fatal error: opencv2/flann/miniflann.hpp: No such file or directory >...
 这是我的库截图,你看看你的库有没有链接上
> 如果想要使用trt7.1.2.6的话,其实这个lib是用不了的 可以用,这个lib 7.0以上的版本调用都没有问题,我这边测试了
> 如果想要使用trt7.1.2.6的话,其实这个lib是用不了的 如果你自己重写推理代码的话,这个确实用不到
> > > 如果想要使用trt7.1.2.6的话,其实这个lib是用不了的 > > > > > > 如果你自己重写推理代码的话,这个确实用不到 > > 这个so里面是有什么特殊操作吗,如果想自己编译的话,请问应该怎么做呢? 这个so主要是做了加载引擎,分配输入输出显存,释放显存,把输入数据从内存拷贝到显存,把输出数据从显存拷贝到内存的操作;封装为so,一是为了加速,二是为了增强代码的可读性。