GLM-4
GLM-4 copied to clipboard
请教一下,glm-4v会支持vllm推理吗?
trafficstars
Feature request / 功能建议
glm-4v使用vllm推理。
Motivation / 动机
目前想尝试服务器部署,使用多客户端对glm4v的api server发起请求,但是用Transformers推理返回结果太慢。看到glm4-chat用vllm推理的速度快了不少,因此希望4v也能支持vllm推理。
Your contribution / 您的贡献
同问,sss
@sixsixcoder 想问下支持使用glm 4v 9b int4进行推理嘛?
@sixsixcoder 想问下支持使用glm 4v 9b int4进行推理嘛?
暂不支持