chenjian
chenjian
https://github.com/PaddlePaddle/FastDeploy/blob/develop/python/fastdeploy/vision/visualize/__init__.py 参考这个,这个模块里给了可视化不同任务处理结果的函数,你用cv2.imwrite把返回的图像保存下来就可以。
https://github.com/PaddlePaddle/FastDeploy/blob/develop/fastdeploy/runtime/backends/tensorrt/trt_backend.cc 把这个里面context_、engine_ destroy()掉试试
是说模型占用的那部分显存没有释放么
gpu显存由paddle框架统一管理的,可能显存在paddle的available的池里,只是你用nvidia-smi看起来是分配了没释放
是使用容器执行吗,启动容器的时候加上--privileged试试呢
没有用过这个打包工具,有使用过这个工具的同学可以一起参考下
量化一下模型是不是能减少存储的占用
已收到您的问题反馈
这个接口可能没有考虑多并发的情况,不过一般batch推理应该不需要多并发吧
已收到需求反馈,后续会根据优先级排