FlyingQianMM

Results 154 comments of FlyingQianMM

这个注释是c#案例demo的,写错了。所以你现在是跑的c++的还是c#的?我们测试的是[c++的demo](https://github.com/PaddlePaddle/PaddleX/blob/release/2.0.0/deploy/cpp/demo/model_infer.cpp)可以正常可视化

> > 这个注释是c#案例demo的,写错了。所以你现在是跑的c++的还是c#的?我们测试的是[c++的demo](https://github.com/PaddlePaddle/PaddleX/blob/release/2.0.0/deploy/cpp/demo/model_infer.cpp)可以正常可视化 > > 嗯。我当时是参考的c#的写的C++的可视化。哈哈。 分割现在的可视化是怎么写的?要不你贴下你的完整model_infer.cpp

1. 想确认下,提供的正常测试的效果图片是其他图片都能预测正常,但是使用105号,168号图片不能预测正常吗? 2. 模型是教程提供的,还是自己训练得到的?

1. 确认下安装的是不是CUDA 10.2/CUDNN 7.6 2. 确认下安装的TensorRT是不是 适用于Windows平台CUDA 10.2, CUDNN 7版本的TensorRT-7.0.0.11 3. 在这行 https://github.com/PaddlePaddle/PaddleX/blob/develop/examples/meter_reader/deploy/cpp/meter_reader/meter_reader.cpp#L48 之后,加一些打印语句,看下程序可以运行到哪一行,然后重新生成项目

c++下面使用`std::cout`,例如: ``` int a = 0; std::cout

这样子,先参考 model deploy单独测试下检测模型和分割模型能否正常运行。 model deploy的编译和使用方式参考文档 https://github.com/PaddlePaddle/PaddleX/blob/develop/deploy/cpp/docs/models/paddlex.md#%E6%AD%A5%E9%AA%A4%E4%BA%8C-%E7%BC%96%E8%AF%91 ,因为这个案例提供的模型是已经导出成静态图格式了,所以从直接从第二步开始就可以了。

看下这个路径下有没有libcudnn.so,没有的话,find后填入libcudnn.so所在路径即可

1. 用管理权权限启动终端 2. 进入该conda环境后,pip show shapely看是否是1.7.1版本,卸载shapely后重新安装shapely issue #1057

windows上,在conda环境内通过pip install shapely后会出现该问题,具体可以看shapely issue https://github.com/Toblerity/Shapely/issues/1032 解决办法: 1. 卸载pip安装的shapely ``` pip uninstall shapely ``` 2. 然后用conda安装 ``` conda install shapely==1.7.1 ```