Jason
Jason
命令用法 ``` paddle2onnx --model_dir models/meter_seg_inference_model --model_filename __model__ --params_filename __params__ --save_file seg.onnx --opset_version 10 --enable_onnx_checker ```
> 你好,我也遇到同样的问题,切换到了develop分支,同样有这个问题。 是指用的PaddleDetection的develop分支,导出ppyolo模型导出时转换失败吗,错误日志是什么呢
参考此说明文档 https://github.com/PaddlePaddle/paddle2onnx/blob/develop/README.md
Linear在Paddle2ONNX会被转换为Matmul, 至于Constant为不同转换的规则。 Paddle2ONNX将所有的权重保存为Constant节点。而有些则可能是将权重保存为initializers
参考这个教程 https://aistudio.baidu.com/aistudio/projectdetail/1479970?channelType=0&channel=0
> 目前转成ncnn有问题,只有部分模型工作, 参见 : https://github.com/RapidOCR/RapidOCRNcnnCpp/tree/main/models 根据你这里的反馈,是目前ch_ppocr_mobile_v2.0_rec, ch_ppocr_mobile_v2.0_cls这两个不行,其余都是可以的是么
maskrcnn支持导出ONNX 目前PaddleDetection在导出模型时,通过指定export_onnx=True,将会导出不带控制流的maskrcnn模型,从而可以转出到ONNX。 当前你可以先按照此方式导出MaskRCNN的部署模型,再使用Paddle2ONNX的这个PR代码进行转换测试 https://github.com/PaddlePaddle/Paddle2ONNX/pull/636
> 感谢回复 导出模型用的是python tools/export_model.py -c configs/mask_rcnn/mask_rcnn_r50_1x_coco.yml -o weights=./mask_rcnn_r50_1x_coco.pdparams --output_dir=./ 似乎没有 export_onnx=True 麻烦再指导下,谢谢 这个问题可以在PaddleDetection下咨询一下
> 这个算子现在是已经支持的,你有使用https://github.com/PaddlePaddle/Paddle2ONNX/pull/636 这个PR的代码进行转换吗
根据你这里的代码提示,你应该是调用接口导出ONNX模型, `paddle.onnx.export`中,支持传入的是paddle.nn.Layer,你这里因为不是这个结构体,因此提示无`eval` 此外,当前MaskRCNN不支持导出ONNX,原因见此issue https://github.com/PaddlePaddle/PaddleDetection/issues/2302