Serving icon indicating copy to clipboard operation
Serving copied to clipboard

Serving模式推理异常

Open weida008 opened this issue 1 year ago • 9 comments

我在使用飞桨的框架实现模型训练和推理过程中发生了一些问题,有人了解的吗?麻烦帮忙分析解决,谢谢!

问题:同一批图片进行推理多次推理时,偶尔出现结果不一样的情况,关闭TRT加速后暂未发现,但关闭后无法实现推理加速。

服务端启动命令:python3 -m paddle_serving_server.serve --model serving_server  --runtime_thread_num 6 --batch_infer_size 32  --port 9595  --gpu_ids 0 --gpu_multi_stream --use_trt

环境:服务端在Ubuntu系统,运行Serving模式进行推理。客户端在windows端(采用GRPC协议,异步通信方式)。

weida008 avatar Aug 29 '23 09:08 weida008

什么模型呢?

jiangjiajun avatar Aug 29 '23 10:08 jiangjiajun

什么模型呢?

picodet

weida008 avatar Aug 29 '23 12:08 weida008

这里说的结果有差别,是结果错误,还是结果正确,但有差异?

jiangjiajun avatar Aug 30 '23 05:08 jiangjiajun

这里说的结果有差别,是结果错误,还是结果正确,但有差异? 正确的结果(我们只取置信度大于0.8的目标画框) image 异常的结果(每次异常都不一样,下图只是个例子) image 推理返回的数据(第1列为类别,第2列为置信度,第3-6列为坐标) image

weida008 avatar Aug 30 '23 05:08 weida008

paddleserving里面的版本不确认是否会太低了。 你可以试下使用FastDeploy提供的Serving示例看下https://github.com/PaddlePaddle/FastDeploy/tree/develop/examples/vision/detection/paddledetection

jiangjiajun avatar Aug 30 '23 05:08 jiangjiajun

paddleserving里面的版本不确认是否会太低了。 你可以试下使用FastDeploy提供的Serving示例看下https://github.com/PaddlePaddle/FastDeploy/tree/develop/examples/vision/detection/paddledetection

这两者有什么不一样? 由于传输3通道的32位浮点图片,太占带宽导致传输速度不高,我们改成传输单通道8位的图片,在服务端接到图片时再进行预处理转成3通道的32位浮点数据,所以需将对Serving进行编译,我换用这个改动较大,能跟我说说两者的区别吗?

weida008 avatar Aug 30 '23 06:08 weida008

区别在于服务框架不同,底层都是Paddle。

你可以试下将Paddle Serving底层的Paddle升级到最新。如果仍然有同样问题,可以试下本地调用Paddle Inference推理确认结果是否正常,如果原因在于Paddle Inference,我可以帮忙联系下Paddle同学来支持

jiangjiajun avatar Aug 30 '23 07:08 jiangjiajun

区别在于服务框架不同,底层都是Paddle。

你可以试下将Paddle Serving底层的Paddle升级到最新。如果仍然有同样问题,可以试下本地调用Paddle Inference推理确认结果是否正常,如果原因在于Paddle Inference,我可以帮忙联系下Paddle同学来支持

我们用的Serving已是最新版,“本地调用Paddle Inference推理”这个需要时间测试(我们也会测试一下),有没有可能是GRPC异步通信的问题?数据组包拆包偶发性错乱?

weida008 avatar Aug 31 '23 00:08 weida008

区别在于服务框架不同,底层都是Paddle。

你可以试下将Paddle Serving底层的Paddle升级到最新。如果仍然有同样问题,可以试下本地调用Paddle Inference推理确认结果是否正常,如果原因在于Paddle Inference,我可以帮忙联系下Paddle同学来支持

我们测试过了原生推理没有发现问题,再帮忙分析原因,谢谢支持!

weida008 avatar Sep 08 '23 02:09 weida008