GLM-4
GLM-4 copied to clipboard
请教一下,glm-4v会支持vllm推理吗?
Feature request / 功能建议
glm-4v使用vllm推理。
Motivation / 动机
目前想尝试服务器部署,使用多客户端对glm4v的api server发起请求,但是用Transformers推理返回结果太慢。看到glm4-chat用vllm推理的速度快了不少,因此希望4v也能支持vllm推理。