作者您好,请问我用fastapi写了一个paddlers的接口,传入大图像路径开始推理,但是推理比较慢?请问有什么办法提高下推理速度吗
Thanks for your issue. To help us better solve the issue, please provide the following information:
- PaddleRS version: (please specify the branch as well,e.g. PaddleRS release/1.0)
- PaddlePaddle version: (e.g. PaddlePaddle 2.3.0)
- Operation system: (e.g. Linux/Windows/MacOS)
- Python version: (e.g. Python3.7/8)
- CUDA/cuDNN version: (e.g. CUDA10.2/cuDNN 7.6.5)
- Additional context: (add any other context about the problem)
欢迎您的提问。辛苦您提供以下信息,以方便我们快速定位和解决问题:
- PaddleRS版本:PaddleRS release/1.0
- PaddlePaddle版本:PaddlePaddle 2.3.0
- 操作系统信息:Linux
- Python版本号:Python3.9
- CUDA/cuDNN版本:CUDA12.0
- 其他内容: 无
你好,请问你是想寻找低并发请求时降低模型推理延时的办法吗?如果是这样的话,我建议首先确认服务使用静态图而非动态图格式的模型,导出静态图模型的方式可以参考这里。对于图像分割和变化检测任务,还可以试试PaddleRS的滑窗推理API(支持动态图和静态图),使用方式可以参考这里。
谢谢作者,是低并发降低推理延迟的问题,模型已经导出静态图了,用的滑窗推理,就是图像比较大,现在batchsize为1,blocksize512,一张图需要10分钟左右,我再尝试加大batchsize试试,
嗯嗯,可以尝试调整batch size、窗口大小、滑动步长、重叠部分融合策略,这些参数都会影响推理速度与效果。如果图像实在太大,而部署服务的机器资源充足,也可以考虑对图像进行分块,然后使用多个进程(每个进程分别有一个模型实例,每个模型实例占用一块GPU)对分块进行并行处理,最后融合。
This issue has been automatically marked as stale because it has not had recent activity. It will be closed in 7 days if no further activity occurs. Thank you for your contributions.