X2Paddle
X2Paddle copied to clipboard
转chatglm2的onnx推理模型时,调用onnx2paddle接口时,会报错模型太大。
感谢您参与 X2Paddle 社区! 问题模版为了 X2Paddle 能更好的迭代,例如新功能发布、 RoadMaps 和错误跟踪. :smile_cat:
问题描述
-
错误信息 ValueError: This protobuf of onnx model is too large (>2GB). Call check_model with model path instead.
-
错误截图
具体信息
-
转换模型后用处
- [ ✅ ] 使用 Paddle 框架/ PaddleInference 推理预测
- [ ] 使用 Paddle-Lite 做移动端推理
- [ ] 转换预训练参数,再使用 Paddle 进行模型开发
-
模型来源 chatglm2
-
应用场景
-
版本信息 PaddlePaddle => 2.6.1 X2Paddle => 1.4.1 来源框架版本(ONNX) => 1.16.0
-
您的联系方式(邮箱/微信/电话) [email protected]
适配PaddlePaddle 2.6版本和3.0 版本、以及支持大语言生成模型的工作正在规划中。
你好,我已收到信件,在阅读后会尽快给回复。祝好。