Paddle2ONNX
Paddle2ONNX copied to clipboard
ONNX Model Exporter for PaddlePaddle
转化出来的结构推断好像不是官方通用的输出,如resize算子转化出来不是官方通用的,这个有没有什么办法解决嘛?  再使用onnxsim优化其结构时出现了一些卷积操作推断不出来,这个是不是哪里存在问题,能帮我解答一下疑惑嘛。  我是用于模型推理部署
**请将下面信息填写完整,便于我们快速解决问题,谢谢!** **问题描述** 请在此处详细的描述报错信息 smoke 模型转换,group_norm 不支持 **更多信息 :** - 用于部署的推理引擎: - 为什么需要转换为ONNX格式: - Paddle2ONNX版本: 0.9.8 - 你的联系方式(Email/Wechat/Phone): [email protected] **报错截图**  **其他信息**
离线静态量化后,转为onnx,onnx大小与非量化大小相当,理论上是不是应该比非量化的onnx要小? 量化后的参数文件和模型文件比非量化时要小很多,转为onnx后,onnx模型大小与非量化前的onnx大小差不多,还要大一点点,请问是什么原因造成的,谢谢!
训练环境 PaddleX 2.1 导出环境 paddle2onnx-0.9.8 命令`paddle2onnx --model_dir ./ -pf model.pdiparams -s output.onnx -ov 11 -mf model.pdmodel --enable_dev_version True` 错误输出 ``` [Paddle2ONNX] Start to parse PaddlePaddle model... [Paddle2ONNX] Model file path:...
$ paddle2caffe --model_dir ./inference/sign2 \ --model_filename ./inference/sign2/inference.pdmodel \ --params_filename ./inference/sign2/inference.pdiparams \ --save_file ./inference/sign2_caffe \ --enable_caffe_custom False zsh: command not found: paddle2caffe paddle2caffe命令无法运行。
- 获取input的数量时,应先排除initializers
also changed README location
1. Set input spec to dynamic by default 2. If you don't need to set dynamic shape, set input_spec_shape to None 3. fix lookup_table_v2 and gaussian_random dynamic shape bugs
支持Paddle量化模型导出 1. 如果你导出的ONNX模型用TensorRT进行部署,TensorRT可直接加载该模型做量化推理 ``` paddle2onnx --model_dir quant_inference_model/ --model_filename model.pdmodel --params_filename model.pdiparams --save_file model.onnx --opset_version 13 --enable_onnx_checker True --deploy_backend TensorRT ``` 2. 如果你导出的ONNX模型用ONNXRuntime进行部署,ONNXRuntime可直接加载该模型做量化推理 ``` paddle2onnx --model_dir quant_inference_model/ --model_filename model.pdmodel --params_filename model.pdiparams...