lmdeploy
lmdeploy copied to clipboard
[Feature] Please support Llama3.2 and Qwen2.5
Motivation
https://huggingface.co/collections/meta-llama/llama-32-66f448ffc8c32f949b04c8cf https://huggingface.co/collections/Qwen/qwen25-66e81a666513e518adb90d9e
Related resources
No response
Additional context
No response
就模型结构而言,qwen2.5==qwen2,我已经跑起来了
就模型结构而言,qwen2.5==qwen2,我已经跑起来了
Hi,但是我在用TurboMind Qwen 2.5会报错,提示不支持
pytorch是可以的,turbomind或许需要适配,你可以尝试直接改代码底层,看能不能让引擎将qwen2.5认成qwen2
pytorch是可以的,turbomind或许需要适配,你可以尝试直接改代码底层,看能不能让引擎将qwen2.5认成qwen2
谢谢您的建议!在官方正式支持前,也只能这么干了
@mihara-bot turbomind是支持qwen2.5的,遇到了怎样的错误呢?