Paddle2ONNX icon indicating copy to clipboard operation
Paddle2ONNX copied to clipboard

ONNX Model Exporter for PaddlePaddle

Results 321 Paddle2ONNX issues
Sort by recently updated
recently updated
newest added

转化出来的结构推断好像不是官方通用的输出,如resize算子转化出来不是官方通用的,这个有没有什么办法解决嘛? ![image](https://user-images.githubusercontent.com/58769772/184322691-37f6bb89-4f67-4c3d-ad09-01c3046246fa.png) 再使用onnxsim优化其结构时出现了一些卷积操作推断不出来,这个是不是哪里存在问题,能帮我解答一下疑惑嘛。 ![image](https://user-images.githubusercontent.com/58769772/184323083-6c52e458-2489-41db-b88b-a547dfb145d2.png) 我是用于模型推理部署

**请将下面信息填写完整,便于我们快速解决问题,谢谢!** **问题描述** 请在此处详细的描述报错信息 smoke 模型转换,group_norm 不支持 **更多信息 :** - 用于部署的推理引擎: - 为什么需要转换为ONNX格式: - Paddle2ONNX版本: 0.9.8 - 你的联系方式(Email/Wechat/Phone): [email protected] **报错截图** ![Screenshot from 2022-08-12 15-19-27](https://user-images.githubusercontent.com/26949230/184304637-173162db-865b-43cc-9313-dcbb7927514a.png) **其他信息**

离线静态量化后,转为onnx,onnx大小与非量化大小相当,理论上是不是应该比非量化的onnx要小? 量化后的参数文件和模型文件比非量化时要小很多,转为onnx后,onnx模型大小与非量化前的onnx大小差不多,还要大一点点,请问是什么原因造成的,谢谢!

训练环境 PaddleX 2.1 导出环境 paddle2onnx-0.9.8 命令`paddle2onnx --model_dir ./ -pf model.pdiparams -s output.onnx -ov 11 -mf model.pdmodel --enable_dev_version True` 错误输出 ``` [Paddle2ONNX] Start to parse PaddlePaddle model... [Paddle2ONNX] Model file path:...

Operator(New)

$ paddle2caffe --model_dir ./inference/sign2 \ --model_filename ./inference/sign2/inference.pdmodel \ --params_filename ./inference/sign2/inference.pdiparams \ --save_file ./inference/sign2_caffe \ --enable_caffe_custom False zsh: command not found: paddle2caffe paddle2caffe命令无法运行。

- 获取input的数量时,应先排除initializers

also changed README location

1. Set input spec to dynamic by default 2. If you don't need to set dynamic shape, set input_spec_shape to None 3. fix lookup_table_v2 and gaussian_random dynamic shape bugs

支持Paddle量化模型导出 1. 如果你导出的ONNX模型用TensorRT进行部署,TensorRT可直接加载该模型做量化推理 ``` paddle2onnx --model_dir quant_inference_model/ --model_filename model.pdmodel --params_filename model.pdiparams --save_file model.onnx --opset_version 13 --enable_onnx_checker True --deploy_backend TensorRT ``` 2. 如果你导出的ONNX模型用ONNXRuntime进行部署,ONNXRuntime可直接加载该模型做量化推理 ``` paddle2onnx --model_dir quant_inference_model/ --model_filename model.pdmodel --params_filename model.pdiparams...