sanshi9523
sanshi9523
您好,请教一下测试qwen2.5vl-7b使用什么版本的transformers,我现在使用的是 4.49.0.dev0 在调用该工具有以下报错 ValueError: Trying to set a tensor of shape torch.Size([2048]) in "bias" (which has shape torch.Size([1280])), this looks incorrect.
请问这个问题有解决的方法吗 ---- 回复的原邮件 ---- | 发件人 | ***@***.***> | | 日期 | 2025年02月22日 17:10 | | 收件人 | ***@***.***> | | 抄送至 | ***@***.***>***@***.***> | | 主题 | Re: [open-compass/VLMEvalKit]...
> downgrade your flash attention version, such as `pip install flash-attn==2.7.4.post1 --no-build-isolation` 可以安装更低版本的吗?这个版本安装不成功,具体报错如下 
我遇到了一样的报错,该怎么解决
同样的报错,请问有什么方法解决吗?
> 你使用了哪个框架? vllm0.11.0,同样的环境部署Qwen3-VL-32B几乎没有这种情况发生