Paddle-Inference-Demo icon indicating copy to clipboard operation
Paddle-Inference-Demo copied to clipboard

Results 18 Paddle-Inference-Demo issues
Sort by recently updated
recently updated
newest added

### 描述 1. 在Develop分支下的XPU编译中,会出现zlib找不到的问题 - 相关ISSUE:https://github.com/PaddlePaddle/Paddle/issues/66180 - 解决方法参考:https://stackoverflow.com/questions/22337896/how-to-fix-undefined-references-to-inflate-deflate-functions 2. 在官方的XPU镜像中是不存在CUDA驱动的,因此需要删除project中project(cpp_inference_demo CXX C CUDA)中的CUDA,才能使得run.sh可以正确运行

描述:jetson nano 下使用make从源码编译,cmake 构建成功后,使用make -j4编译,提示 缺少 libphi.a文件; 问题: 原因,如何解决? 日志如下:,环境 如下,cmakelists.txt 见附件 ![27](https://github.com/PaddlePaddle/Paddle-Inference-Demo/assets/35392697/459795cf-accb-4ccb-accd-af89b199228f) [ 11%] Building CUDA object paddle/phi/CMakeFiles/phi.dir/kernels/sparse/gpu/softmax_kernel.cu.o [ 11%] Building CXX object paddle/phi/CMakeFiles/phi.dir/kernels/cpu/activation_grad_kernel.cc.o [ 11%] Building CXX object...

error while loading shared libraries: libpaddle2onnx.so.1.0.0rc2: cannot open shared object file: No such file or directory

有老哥给了这个https://github.com/PaddlePaddle/Paddle/issues/60540 解决方案,cudnn换成8.5版本的,但是 ![微信图片_20240906194633](https://github.com/user-attachments/assets/dd591a37-2bd1-4891-b285-f077a3f174d0) paddle inference的wheel包只支持8.4的cudnn,无解。另外我用的是nvidia/cuda:11.4.3-cudnn8-runtime-ubuntu20.04这个镜像,这里cudnn是8.2.4的,希望工作人员能尽快更新这个镜像版本的whl包支持!

请问在windows10上,采用paddle inference对PaddleOCR做GPU版本的C++部署,链接了cuda和tensorrt,在加载资源这个过程中速度非常慢,是因为什么原因导致的呢?

https://github.com/PaddlePaddle/Paddle-Inference-Demo/blob/cbf3a528eedf876d2b59409c406ef64aee29772f/python/advanced/multi_thread/threads_demo.py#L104 是不是应该是: for t in threads: t.join()

首先我下载了官方所给的resunet模型的参数和模型文件:inference.pdiparams和inference.pdiparams.info和inference.pdmodel,然后调用了官方的例程,一直在“auto input_names = predictor->GetInputNames();”这一步代码出错,显示内存已被破坏,后来经过调试发现config中根本就没读取到, 代码如下: // 字符串 prog_file 为 Combine 模型文件所在路径 std::string prog_file = "./resunet/inference.pdmodel"; // 字符串 params_file 为 Combine 模型参数文件所在路径 std::string params_file = "./resunet/inference.pdiparams"; // 设置推理模型路径,即为本小节第2步中下载的模型 // 根据模型文件和参数文件构造 Config...