henry
henry
### 🔎 Search before asking - [x] I have searched the PaddleOCR [Docs](https://paddlepaddle.github.io/PaddleOCR/) and found no similar bug report. - [x] I have searched the PaddleOCR [Issues](https://github.com/PaddlePaddle/PaddleOCR/issues) and found no...
## Checklist: - [x] 查找[历史相关issue](https://github.com/PaddlePaddle/PaddleX/issues)寻求解答 - [x] 翻阅[FAQ](https://paddlepaddle.github.io/PaddleX/main/FAQ.html) - [x] 翻阅[PaddleX 文档](https://paddlepaddle.github.io/PaddleX/main/index.html) - [x] 确认bug是否在新版本里还未修复 ## 描述问题 addleOCR-VL采用vllm部署后,300多张图片循环请求predict时,出现内存由2G占用不断增加到10G不释放,是否存在内存泄漏?如何改善? 客户端和服务端是k8s中的一个pod,2个容器,每个容器都用了一张A100的卡。 发现客户端的内存增长不释放,客户端的容器内,使用nvidia-smi看了下GPU是有资源使用的(由此可知是正常使用了显存,非用内存替代)) 实测,在predict后加gc.collect(),上涨降低(2G到6G),但是还是逐个累加 ## 复现 ```python from paddleocr import PaddleOCRVL pipeline =...