RobustVideoMatting icon indicating copy to clipboard operation
RobustVideoMatting copied to clipboard

rvm_mobilenetv3_fp16.onnx 转 TensorRT模型失败

Open BaiBaiXu opened this issue 4 years ago • 6 comments

rvm_mobilenetv3_fp16.onnx 转 TensorRT模型失败,图片中转换报错,请问下有什么办法把AIMatting模型成功转 TensorRT模型吗?

image

BaiBaiXu avatar Sep 28 '21 01:09 BaiBaiXu

看来TensorRT只支持Resize层用固定的Factor,也就是 downsample_ratio 不支持更改。你可以自己写ONNX导出代码把downsample_ratio固定,然后转TRT

PeterL1n avatar Sep 28 '21 06:09 PeterL1n

@PeterL1n 你好,使用onnx分支的代码转为onnx之后,onnxruntime.InferenceSession("model.onnx")会报错:

onnxruntime.capi.onnxruntime_pybind11_state.Fail: [ONNXRuntimeError] : 1 : FAIL : Load model from model.onnx failed:Type Error: Type parameter (T) bound to different types (tensor(float) and tensor(float16) in node (Conv_19).

hust-kevin avatar Sep 28 '21 07:09 hust-kevin

@hust-kevin 你的输入必须FP16/32 要和模型符合,downsample_ratio需要为FP32。看文档

PeterL1n avatar Sep 28 '21 19:09 PeterL1n

up 就是我生成模型没有问题 但是使用简化出现这个问题是怎么回事呢? 步骤一: 1635862965(1) 步骤二 34K2OD573%@3FU1SBC6(G20

sxj731533730 avatar Nov 02 '21 14:11 sxj731533730

up 就是我生成模型没有问题 但是使用简化出现这个问题是怎么回事呢? 步骤一: 1635862965(1) 步骤二 34K2OD573%@3FU1SBC6(G20

请问这个你解决了吗,我也有相同的错误,我的cpu32 可以运行,切换为gpu 无论是16 还是32 都报错

zhanghongyong123456 avatar Apr 19 '22 01:04 zhanghongyong123456

image 我也是,ort.InferenceSession时报这种错。

dlz620301 avatar Jun 05 '23 08:06 dlz620301