FlyingQianMM

Results 154 comments of FlyingQianMM

我看这个临时文件都是pymp开头,应该都是python的多进程产生的,你现在的起paddlex的机器是linux系统吗?

我们实测了下,没有复现出的情况。 关于您提到的的情况,想再了解一下您当前的使用情况: 1. 您这边使用paddlex restful api的前端是paddlex提供html demo还是paddlex gui?还是自行开发的前端? 2. 从提供的tmp目录下看,看起来是多进程通信产生的文件。是否有基于paddlex restful api再做进一步的开发?有没有使用多个client请求同一个server的情况?或者其他的多进程开发?

看了下你的脚本,跟PaddleX原本的差不多。 > 关于您提到的的情况,想再了解一下您当前的使用情况: > 1. 您这边使用paddlex restful api的前端是paddlex提供html demo还是paddlex gui?还是自行开发的前端? > 2. 从提供的tmp目录下看,看起来是多进程通信产生的文件。是否有基于paddlex restful api再做进一步的开发?有没有使用多个client请求同一个server的情况?或者其他的多进程开发? 建议从前端这里排查下问题

1. Mask RCNN在bs>1时推理预测会有点问题,所以还是一次使用一张图片进行预测。 2. Mask RCNN+ResNet50本身模型结构较大,需要占用较大显存,尤其是模型输出较大时。 3. 目前显存不足的情况下,可以等小图片分别预测完之后,再合并结果。

PaddleX目前还没有集成轻量级的实例分割模型,可以试下PaddleDetection里的SOLOV2,https://github.com/PaddlePaddle/PaddleDetection/tree/release/2.2/configs/solov2

1. 共享GPU内存一般由操作系统操控 2. 当前显存不是很大,遇到大图片时,可以将大图切小图分别预测再合并结果,或者把模型输入大小设的小一些 3. GPU下可以先试下开启TensorRT预测,能让模型推理进一步加速

1. 模型输入大小由model.yml中的transform部分决定 2. 预热是测试性能的一个步骤, ![image](https://user-images.githubusercontent.com/22235422/128960752-7e366c0e-2533-41b0-97a0-eb7121e44860.png)

试下: ``` pip uninstall paddlex git clone https://github.com/PaddlePaddle/PaddleX.git cd PaddleX git checkout develop git pull pip install -r requirements.txt python setup.py install ```

可以看下2.0的教程https://github.com/PaddlePaddle/PaddleX/tree/develop/tutorials/slim/prune

看报错信息,权限不够 可以用管理员权限启动