Paddle2ONNX
Paddle2ONNX copied to clipboard
ONNX Model Exporter for PaddlePaddle
**问题描述** [Paddle2ONNX] Oops, there are some operators not supported yet, including isnan_v2, [ERROR] Due to the unsupported operators, the conversion is aborted.
[Paddle2ONNX] Oops, there are some operators not supported yet, including multinomial,put_along_axis, [ERROR] Due to the unsupported operators, the conversion is aborted.
用下面的三个命令生成ppocr4的onnx模型后,用cuda providers推理的速度很慢,用cpu providers推理的速度更快一些,请问是什么原因导致的呢? paddle2onnx命令: paddle2onnx --model_dir ch_PP-OCRv4_det_infer --model_filename inference.pdmodel --params_filename inference.pdiparams --save_file ppocr4_det_0926.onnx --opset_version 16 --enable_onnx_checker True paddle2onnx --model_dir ch_PP-OCRv4_rec_infer --model_filename inference.pdmodel --params_filename inference.pdiparams --save_file ppocr4_rec_0926.onnx --opset_version 16 --enable_onnx_checker True...
使用官网提供的模型,如下所示:  **问题描述** 使用下述指令转换: `paddle2onnx --model_dir . --model_filename inference.pdmodel --params_filename inference.pdiparams --deploy_backend onnxruntime --save_file ./rec_slim.onnx --opset_version 11 --enable_onnx_checker True` - Paddle2ONNX版本 : 1.2.9 **报错截图**  **其他信息**
# 1. 需求背景 ONNX是一种开放的深度学习模型交换格式,可让模型在不同平台和框架间无缝转换与部署,Paddle2ONNX开源仓库支持将飞桨的推理模型表示转换到ONNX算子协议以实现对接ONNX生态。飞桨在3.0Beta发布了新一代的中间表示(即Paddle IR),并升级了所有的算子定义形式,取代了2.x版本基于protobuf的中间表示。因此我们期望能够基于飞桨新一代Paddle IR的算子定义,升级Paddle2ONNX中的转换规则,支持Paddle IR 协议下的ONNX模型转换。 # 2. 当前进展 目前在Paddle2ONNX的`test_pir` 分支已经完成了基本的机制建设,包括PIR下对模型文件的解析,输入输出变量对齐,算子的注册机制,获取算子输入、输出、属性,PIR下单测执行等。Resnet50在当前机制下可以正确转化为onnx模型文件,并通过了精度验证。 # 3. 任务划分 Paddle2ONNX适配Paddle IR的模型转化任务按照算子级别进行划分 ### 认领方式 **填写Excel表进行认领** 🚩[任务认领登记表](https://docs.qq.com/sheet/DSGhBUVpjZGJMaG1n?tab=BB08J2)🚩 * 每一次认领最多同时认领5个算子转化适配任务,并在一个PR内提交,可多次认领,多个PR提交 * PR提交格式:以`【P2O-PIR】`开头,具体要求请见【[4.8 PR提交](#0)】 * 认领后,超过2周没有提交PR,将重新释放 ###...
请教大家一个问题,我在使用paddlespeech的kws时,想把模型转为静态图或者onnx,均出现以下报错,要怎么解决才能导出模型? 
paddlepaddle-gpu:3.0.0b1 paddle2onnx:1.2.9 PaddleSeg:2.9.0 RTFormer转onnx格式输出结果不一致,使用随机数作为输入,使用PaddleSeg提供预训练模型转换。paddle2.6版本下是一致的。
1. 目前完成了 full , full_int_array 的算子注册,还没有进行单元测试。 2. 在实现 pir mapper 时发现 pir parser 缺少接口 (paddle2onnx/mapper/mapper.h) - [x] Optype() - [x] HasInput() - [x] HasOutput() - [x] GetInput() - [x] GetOutput()...
使用paddle2onnx转换mot_ppyoloe_l_36e_pipeline模型到onnx格式,使用onnxruntime加载转换后的onnx模型文件报错。 环境: ubuntu-22.04 paddle2onnx-1.2.8 PaddlePaddle 2.6.1 onnxruntime-1.19.2 模型文件地址: https://bj.bcebos.com/v1/paddledet/models/pipeline/mot_ppyoloe_l_36e_pipeline.zip 转换命令: paddle2onnx --model_dir ./person/mot_ppyoloe_l_36e_pipeline \ --model_filename model.pdmodel \ --params_filename model.pdiparams \ --save_file ./person/mot_ppyoloe_l_36e_pipeline/model.onnx \ --enable_onnx_checker True 转换命令的输出: [Paddle2ONNX] Start to parse...