PaddleX
PaddleX copied to clipboard
高性能框架
trafficstars
Checklist:
- [ ] 查找历史相关issue寻求解答
- [ ] 翻阅FAQ
- [ ] 翻阅PaddleX 文档
- [ ] 确认bug是否在新版本里还未修复
描述问题
为什么单独使用文本识别模型的高性能推理没有问题,但是将文本检测和文本识别模型放到一个文件中, 都使用高性能推理框架却报错,文本识别模型: PP-OCRv4_server_rec_doc,文本检测模型:PP-OCRv4_server_det
复现
-
高性能推理
-
您是否完全按照高性能推理文档教程跑通了流程?
-
您使用的是离线激活方式还是在线激活方式?
-
-
服务化部署
-
您是否完全按照服务化部署文档教程跑通了流程?
-
您在服务化部署中是否有使用高性能推理插件,如果是,您使用的是离线激活方式还是在线激活方式?
-
如果是多语言调用的问题,请给出调用示例子。
-
-
端侧部署
-
您是否完全按照端侧部署文档教程跑通了流程?
-
您使用的端侧设备是?对应的PaddlePaddle版本和PaddleLite版本分别是什么?
-
-
您使用的模型和数据集是?
-
请提供您出现的报错信息及相关log
环境
- 请提供您使用的PaddlePaddle、PaddleX版本号、Python版本号 3.0.0rc0,python 3.10
- 请提供您使用的操作系统信息,如Linux/Windows/MacOS Linux
- 请问您使用的CUDA/cuDNN的版本号是? cuda11.8-cudnn8.6-trt8.5