X2Paddle
X2Paddle copied to clipboard
Fail to generate inference model!No Error Information show
Nodes converted. onnx_layernorm_fuse_pass done! onnx_gelu_fuse_pass done! replace_div_to_scale_pass done! Exporting inference model from python code ('/home/shihuiyu/yolov7-main/yolov7-tiny_infer/onnx2paddle_0/x2paddle_code.py')...
Fail to generate inference model! Problem happend while export inference model from python code '/home/shihuiyu/yolov7-main/yolov7-tiny_infer/onnx2paddle_0/x2paddle_code.py';
===================Error Information===============
下面不显示任何错误信息,使用yolov7和yolov7-tiny模型都试过了,显示一模一样。 请问这是怎么回事啊?
为了排除是我使用的onnx模型的问题,使用了你们提供的yolov7-tiny.onnx也是显示上面的报错
@shihuiyu 麻烦提供一下onnx模型以及具体报错
另外,可以描述一下以下两个问题吗: 1、具体业务场景 2、为什么有转到Paddle部署的需求呢?
感谢~
@shihuiyu 麻烦提供一下onnx模型以及具体报错
另外,可以描述一下以下两个问题吗: 1、具体业务场景 2、为什么有转到Paddle部署的需求呢?
感谢~
就是在你们yolo自动压缩工程里下载的yolov7-tiny.onnx模型啊,具体报错就是一楼写的那样。 业务场景就是做目标识别,但是模型太大了想压缩一下
@shihuiyu 是这个页面PaddleSlim下载的ONNX模型吗,我这边验证没什么问题
具体版本: ONNX:1.10.0 X2Paddle:1.3.8 Paddle:develop
麻烦对齐版本后再试一下
@shihuiyu 是这个页面PaddleSlim下载的ONNX模型吗,我这边验证没什么问题
具体版本: ONNX:1.10.0 X2Paddle:1.3.8 Paddle:develop
麻烦对齐版本后再试一下
在这个页面下载的模型https://github.com/PaddlePaddle/PaddleSlim/tree/develop/example/auto_compression/pytorch_yolo_series
我的版本: onnx:1.10.2 x2paddle:1.3.8 paddle一开始是develop版本,后来出现上面说的错误,改为了2.3.2,仍旧出现上面说的错误,所以才来留言
@shihuiyu 我在你上面页面下载的yolov7.onnx验证没什么问题,把你出问题的onnx模型上传一下