eryyes

Results 7 comments of eryyes

子进程模式用后销毁,不适合triton这种高并发server模式,还有什么解决方法么?模型是自己训练的高精度模型,模型较大,所以cpu推理速度太慢,gpu比较合适,但是一直占着显存,这就尴尬了,再多卡也扛不住

是的,因为用的gpu,所以多线程,每个线程中对模型clone,执行完后del clone_model,但是gpu显存没降,有微信群么?交流方便点

@jiangjiajun 现在的部署方式是fastdeploy + triton 服务化部署 ,并发等各方面都很好的解决了,就是没办法释放gpu,子进程启动模型后释放,这种只适合跑批,不太适合常驻高并发的server模式吧。。。

@wanshichenguang 是triton的docker服务化部署么?怎么解决呢?能否说的详细点,感谢

@tink2123 其他模型都不错,现有所有模型中,表格识别模型准确率精度的确达不到,下面这张图中混合多种情况,现有模型没办法完美识别和还原 ![image](https://github.com/PaddlePaddle/PaddleOCR/assets/5206194/230dcfb5-0ac3-4ec2-93d3-fc9cf329f506)

首先导出model.pdmodel 等paddle interfere模型时不要包含后处理,-o weight=xxxx exclude_nms=True 然后再用paddle2onnx 导出,后续推理时,后处理需要自己处理