tensorRT_Pro
tensorRT_Pro copied to clipboard
请问TRT::infer推理其他模型可行吗?
您好,您的TensorRT开源项目中对TensorRT的封装我觉得对新手十分友好,上手非常简单,但是我还是有些疑问。我用TRT::infer加载其他任务如深度估计,语义分割的float32或者float16engine文件。我在推理结果保存成二进制文件后再python中再加载结果进可视化后发现推理出来的结果是错的。我onnx转engine使用trtexec转的。主要使用到的代码如下:
infer->input(0)->set_mat(0,img);
infer1->forward();
auto out = infer1->output(0);
infer1->output(0)->save_to_file(sttr);
onnx转trt是直接用的
trtexec --onnx=XXXX --saveEngine=XXXX
请问TRT::infer是不是不适用于其他模型的推理呢?
你要确认你的图像预处理是否正确
您好,我图像也没有什么预处理之类的。我是用它来推理深度估计和语义分割任务。而且在输入前对图像做了裁剪操作,并没有其他的预处理。所以TRT::infer是支持其他任务的推理?@shouxieai
我说的预处理,指rgb->bgr。或者除以255,减去均值类的。