Jason
Jason
Hi,请问能跑Tensort吗,当前看是ONNX Runtim报错了
如果你只是需要TensorRT部署,可以自行编译FastDeploy。 当前Cuda 10.1上只能支持TensorRT
> > 如果你只是需要TensorRT部署,可以自行编译FastDeploy。 当前Cuda 10.1上只能支持TensorRT > > 我去TensorRT官网看了一下,没有找到CUDA10.1对应的发行版本,请问需要下载哪个版本呢? 下载10.2对应的即可
> 麻烦您提供一下python编译选项的设置... ``` git clone https://github.com/PaddlePaddle/FastDeploy.git cd FastDeploy/python export ENABLE_TRT_BACKEND=ON export ENABLE_VISION=ON export ENABLE_OPENVINO_BACKEND=ON export WITH_GPU=ON export TRT_DIRECTORY=/trt/xxxx export CUDA_DIRECTORY=/usr/loca/cuda-10.2 python setup.py build python setup.py bdist_wheel ```
> 环境搞了一天没搞好,555555555555555 > 打算明天用 paddleinference 部署试一下... 方便的话,可以加我们微信群,了解下你具体遇到啥问题
> yolo5推理 CPU推理成功 GPU推理卡在CMD窗口(失败) 是否要自己编译opencv GPU版本去替换啊 你的环境可以贴一下吗? Windows系统(10/x64等) /CUDA/显卡型号/Python
ENABLE_OPENCV_CUDA建议先关闭,这个还未完全测试。 建议打开如下开关 ENABLE_ORT_BACKEND ENABLE_PADDLE_BACKEND ENABLE_VISION 其余采用默认配置即可 可参考这个文档进行编译 https://github.com/PaddlePaddle/FastDeploy/blob/develop/docs/compile/how_to_build_windows.md
@liupeiqiHN 感谢你的使用反馈。 在先前引入第三方库时,为了简化编译过程,因为对部分库采用了自动下载的方式。 但你上面提到的“增加已安装库编译选项”这个确实需要考虑。 我们争取在0.3版本完成编译体验的优化。
这个需要依赖最新的FastDeploy,由于当前还没发布预编译库,请参考这个文档自行编译后使用 https://github.com/PaddlePaddle/FastDeploy/tree/develop/docs/compile