Serving icon indicating copy to clipboard operation
Serving copied to clipboard

A flexible, high-performance carrier for machine learning models(『飞桨』服务化部署框架)

Results 218 Serving issues
Sort by recently updated
recently updated
newest added

registry.baidubce.com/paddlepaddle/serving:0.9.0-cuda10.2-cudnn8-devel的 Serving0.6执行完多次推理后,闲时显存不释放

看了异步接口batch相关的文档和代码,`--batch_infer_size 32`参数应该只能保证每次infer的batch不超过32,有什么方法能够让每次infer的batch是固定的32吗?

使用pipeline部署多个模型时,无论模型多大,总是会把显存都占满,请问可以调整哪个参数设置初始化显存大小呢

question

Traceback (most recent call last): File "C:\Users\CDROG\paddle_recaptcha\env\lib\site-packages\paddle_serving_server\pipeline\error_catch.py", line 97, in wrapper res = func(*args, **kw) File "C:\Users\CDROG\paddle_recaptcha\env\lib\site-packages\paddle_serving_server\pipeline\error_catch.py", line 163, in wrapper result = function(*args, **kwargs) File "C:\Users\CDROG\paddle_recaptcha\env\lib\site-packages\paddle_serving_server\pipeline\pipeline_server.py", line 51, in...

启动命令 为什么启动后的请求的参数如下: 是否需要自己编译c++ 的serving才可以?

参考文档 PaddleDetection-release-2.6/deploy/serving/python/README.md 通过命令进行模型下载,转换,以及启动服务,都很顺利,但是运行`python deploy/serving/python/pipeline_http_client.py --image_file demo/000000014439.jpg` ,返回结果不报错,但是只返回一个检测框,即使图中有多个目标。目前没有深入去看不知道是哪里的问题, 走到函数parse_detection_result()这里的fetch_dict就只有一个数组。

进行gpu编译的时候,报错这个文件不存在,http://paddle-inference-lib.bj.bcebos.com/2.2.2/cxx_c/Linux/GPU//paddle_inference.tgz

看到issue没人答复,很久没用更新代码,是不是被废弃了?

hi 这边按照文档在ascend 310机器上编译,cann的版本是6.0.1,python3.9.2,报错如下,看起来是依赖一个预编译的库;serving是一定要依赖于固定的依赖库的版本吗,比如cann3.0, python3.7, gcc7xx ? 感谢回答。 https://github.com/PaddlePaddle/Serving/blob/v0.9.0/doc/Run_On_NPU_CN.md ![image](https://github.com/PaddlePaddle/Serving/assets/9452272/bd1635fe-97ea-434b-95ad-b3de31e53c14)