PP-HumanSeg-opencv-onnxrun icon indicating copy to clipboard operation
PP-HumanSeg-opencv-onnxrun copied to clipboard

分别使用OpenCV、ONNXRuntime部署PP-HumanSeg肖像分割模型,包含C++和Python两个版本的程序

Results 2 PP-HumanSeg-opencv-onnxrun issues
Sort by recently updated
recently updated
newest added

terminate called after throwing an instance of 'Ort::Exception' what(): Invalid Feed Input Name:�#�qtU 已放弃 (核心已转储)

1、仓库提供的model_float32.onnx模型的OUTPUTS格式为name: tf.identity、type: float32[1,192,192,2] ![image](https://user-images.githubusercontent.com/57906249/181177825-d04785db-0e14-4f62-b5f5-23b8b746775c.png) 2、自己按照[PaddleSeg 官方指导](https://github.com/PaddlePaddle/PaddleSeg/blob/release/2.6/docs/model_export_onnx_cn.md)导出的pp_liteseg_stdc2.onnx模型的OUTPUTS格式为name: argmax_0.tmp_0、type: int64[-1,-1,-1] ![image](https://user-images.githubusercontent.com/57906249/181177655-472e271e-8ed0-42e2-9e20-3f1ee470f05a.png) 3、使用大佬提供的模型可以跑成功,但换成我自己导出的这个就没有结果,可则个pp_liteseg_stdc2.onnx模型使用PaddleSeg提供的Python版本的deploy/python/infer_onnx.py程序又可以出正确的结果。 4、所以请问大佬的onnx模型导出是自己写的导出程序还是PaddleSeg官方提供的程序导出的,如何得到与提供的model_float32.onnx模型相同的的OUTPUTS格式,我试过导出多个PaddleSeg模型,感觉OUTPUTS格式都一样