FlyingQianMM
FlyingQianMM
则无法训练,具体是报什么错误呢? 使用FPN精度和速度都会更快,一般都推荐打开FPN,这边关闭FPN是业务场景需要吗?
1. 电脑上是有安装两个cuda版本?系统环境变量里面写的是哪个cuda版本呢? 2. 命令行输出nvidia-smi,看下现在安装的cuda\cudnn\显卡驱动是什么版本
看你前面通过python已经安装了paddlepaddle_gpu 2.1.1,试下  看下输出信息中是否有检测到GPU
> 显示也是11.2 系统环境变量里面写的是也是CUDA 11.2吗?
那你试试用PaddleX python api能不能正常运行 安装方法: https://github.com/PaddlePaddle/PaddleX/blob/develop/docs/install.md#1-paddlex-api%E5%BC%80%E5%8F%91%E6%A8%A1%E5%BC%8F%E5%AE%89%E8%A3%85 示例代码: https://github.com/PaddlePaddle/PaddleX/tree/develop/tutorials/train 使用文档: https://github.com/PaddlePaddle/PaddleX#paddlex-%E4%BD%BF%E7%94%A8%E6%96%87%E6%A1%A3
@lv9618 辛苦截图看下模型里面的model.yml
看下日志里面有没有报错信息 
为了定位问题所在,可以先尝试以下方法: 1. 不使用c#部署,先使用c++部署。参考[c++部署文档示例](https://github.com/PaddlePaddle/PaddleX/blob/develop/deploy/cpp/docs/demo/model_infer.md)测试你自己的模型和图片是否符合python预测结果 2. 在确认 步骤1无误后,再来定位c#部署的问题。c++部署时读取图片是采用[cv::imread的方式](https://github.com/PaddlePaddle/PaddleX/blob/eb1dfbc119d041f8d2d240f7cfa920991a69dcf6/deploy/cpp/demo/model_infer.cpp#L51)得到bgr格式的cv::mat,然后传给模型。c#部署时是将[Bitmap转换成uchar*](https://github.com/PaddlePaddle/PaddleX/blob/develop/examples/C%23_deploy/Program.cs#L61),之后再将[该指针赋给cv::mat](https://github.com/PaddlePaddle/PaddleX/blob/develop/examples/C%23_deploy/model_infer.cpp#L85)。 需要注意c#转换时是否与原本c++部署时接受的图片数据一致。
使用我们提供的tutorial可以正常运行吗?
我们给的tutorial num_epochs设到了270,如果tutorial能够正常跑完,可以检查下你的数据集是否有问题。