chenjian
chenjian
已收到您的反馈建议
可以参考这份代码,使用tritonserver来部署 https://github.com/PaddlePaddle/FastDeploy/tree/llm/llm
底层用的是trionserver,如果确实每次只能启动一个version,可以去tritonserver提个issue问一下
目前应该没有
可能是参考PaddleDetection的,建议去这里请教更专业的人士
(之前在同样硬件,python3.6 以及官方提供的paddle inference 包编译安装后,都可执行正常)编译时候代码commit也是一样的么
emsemble的应用场景是多个模型的输入和输出互相衔接组合起来使用形成一个pipeline。python backend主要是可以将所有的推理代码自己用python脚本表示,可能会更加灵活一点,适用于需要自己有很多自定义逻辑的场景。
支持的,可以参考serving目录的示例https://github.com/PaddlePaddle/FastDeploy/tree/develop/examples/vision/detection/paddledetection/serving
收到您的反馈,后续我们定位一下问题