YoloV5_JDE_TensorRT_for_Track
YoloV5_JDE_TensorRT_for_Track copied to clipboard
请问处理速度如何?
首先,感谢您共享了代码。
关于CSTrack算法,我比较感兴趣转码后的处理速度如何。
这个算法,我最初也打算用TRT加速推理。只是在CCN模块遇到硬伤AdaptiveAveragePooling2D无法转成onnx。因此,我将这个模型转成JIT script,并用libtorch去推理,包括后处理部分卡尔曼滤波等这些都是直接用libtorch去做矩阵计算。
遗憾的是算法输入1333*800比较大, libtorch gpu推理速度 跟 pytorch 差不多,并没有明显提速。整个算法在数据集MOT17-03 测试集 下大约是5fps(i7 7700+1060显卡)。
我查阅了 一下 libtorch 推理速度不快的原因,貌似也有大佬遇到同样的问题。
https://zhuanlan.zhihu.com/p/363319763
因此,我想大致了解一下去除SAAN 和CCN后,用TRT处理速度是多少?对于这个算法的加速推理和计算还有更好的建议吗?谢谢
libtorch貌似不能跑int8,TensorRT可以跑int8.我在2080Ti上是可以实时的,1060就不知道了。普通场景用yolov5-L做检测backbone有点多余。