xxPete
xxPete
-装这个环境装的头大,怎么改都是报错,无法正常运行,我用aistudio上的可以用,pip list得到的如下 ```python absl-py 0.8.1 aiofiles 23.1.0 aiohttp 3.8.4 aiosignal 1.3.1 alembic 1.8.1 altair 4.2.2 anyio 3.6.1 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 aspy.yaml 1.3.0 astor 0.8.1 astroid 2.4.1 async-generator 1.10 async-timeout...
## Checklist: 1. 查找[历史相关issue](https://github.com/PaddlePaddle/PaddleX/issues)寻求解答 2. 翻阅[FAQ常见问题汇总和答疑](https://github.com/PaddlePaddle/PaddleX/blob/develop/docs/FAQ/FAQ.md) 3. 确认bug是否在新版本里还未修复 4. 翻阅[PaddleX 使用文档](https://github.com/PaddlePaddle/PaddleX/tree/develop#paddlex-%E4%BD%BF%E7%94%A8%E6%96%87%E6%A1%A3) ## 描述问题 - 根据这个项目复现的,在aistudio上正常训练,到本地就有问题,显存够的 ## 复现 1. 您是否已经正常运行我们提供的[教程](https://github.com/PaddlePaddle/PaddleX/tree/develop/tutorials)? - 是,可以正常运行 2. 您是否在教程的基础上修改代码内容?还请您提供运行的代码 - 没有 3. 您使用的数据集是? - 小度熊的实例分割数据集 4....
如标题,想要用pyinstaller打包paddlex的一个小项目,坑太多了
**请将下面信息填写完整,便于我们快速解决问题,谢谢!** 我这几天使用paddle2onnx,想把自己使用paddlepaddle框架训练的模型转成onnx模型并调用,但是有的算子不支持,有的转换成功了也不知道怎么搭建网络并调用,有自己训练模型转换成onnx模型并推理的教程吗。感觉支持的框架不多 **问题描述** 请在此处详细的描述报错信息 **更多信息 :** - 用于部署的推理引擎: - 为什么需要转换为ONNX格式:使用了多个框架来训练模型,想把几个框架的模型都转成onnx格式的模型并推理 - Paddle2ONNX版本: - 你的联系方式(Email/Wechat/Phone): **报错截图** **其他信息**
感谢您参与 X2Paddle 社区! 问题模版为了 X2Paddle 能更好的迭代,例如新功能发布、 RoadMaps 和错误跟踪. :smile_cat: ## 问题描述 yolov8的分割模型转paddle,在paddle中该如何调用 - 错误信息 - 错误截图 ## 具体信息 yolo转换的模型缺少配置文件,paddle无法调用模型进行推理 - 转换模型后用处 - [ ] 使用 Paddle 框架/ PaddleInference 推理预测 -...