yolov5_tensorrt_int8
yolov5_tensorrt_int8 copied to clipboard
请问trt_engine_lib是怎么生成的?
如果想要使用trt7.1.2.6的话,其实这个lib是用不了的
如果想要使用trt7.1.2.6的话,其实这个lib是用不了的
可以用,这个lib 7.0以上的版本调用都没有问题,我这边测试了
如果想要使用trt7.1.2.6的话,其实这个lib是用不了的
如果你自己重写推理代码的话,这个确实用不到
如果想要使用trt7.1.2.6的话,其实这个lib是用不了的
如果你自己重写推理代码的话,这个确实用不到
这个so里面是有什么特殊操作吗,如果想自己编译的话,请问应该怎么做呢?
如果想要使用trt7.1.2.6的话,其实这个lib是用不了的
如果你自己重写推理代码的话,这个确实用不到
这个so里面是有什么特殊操作吗,如果想自己编译的话,请问应该怎么做呢?
这个so主要是做了加载引擎,分配输入输出显存,释放显存,把输入数据从内存拷贝到显存,把输出数据从显存拷贝到内存的操作;封装为so,一是为了加速,二是为了增强代码的可读性。
如果想要使用trt7.1.2.6的话,其实这个lib是用不了的
如果你自己重写推理代码的话,这个确实用不到
这个so里面是有什么特殊操作吗,如果想自己编译的话,请问应该怎么做呢?
文件太大,我就放到百度盘了(链接: https://pan.baidu.com/s/1sF8vZ1JyBvk5Z_IUBP3CgA 密码: qlgk)
操作步骤如下: cd Generate_LibMyTtrEngine-trt721/src vim CMakeLists.txt 设置cuda目录(例如:/usr/local/cuda-11.0/include) make build cd build cmake .. make 在Generate_LibMyTtrEngine-trt721/bin目录下生成libMyTtrEngine-trt721.so动态库