Qwen-VL
Qwen-VL copied to clipboard
[BUG] RuntimeError: a view of a leaf Variable that requires grad is being used in an in-place operation.<title>
是否已有关于该错误的issue或讨论? | Is there an existing issue / discussion for this?
- [X] 我已经搜索过已有的issues和讨论 | I have searched the existing issues / discussions
该问题是否在FAQ中有解答? | Is there an existing answer for this in FAQ?
- [X] 我已经搜索过FAQ | I have searched FAQ
当前行为 | Current Behavior
[
{
"id": "identity_0",
"conversations": [
{
"from": "user",
"value": "你好"
},
{
"from": "assistant",
"value": "我是Qwen-VL,一个支持视觉输入的大模型。"
}
]
},
{
"id": "identity_1",
"conversations": [
{
"from": "user",
"value": "Picture 1: https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg\n图中的狗是什么品种?"
},
{
"from": "assistant",
"value": "图中是一只拉布拉多犬。"
},
{
"from": "user",
"value": "框出图中的格子衬衫"
},
{
"from": "assistant",
"value": "格子衬衫
assets/mm_tutorial/Chongqing.jpeg\nPicture 2:
assets/mm_tutorial/Beijing.jpeg\n图中都是哪"
},
{
"from": "assistant",
"value": "第一张图片是重庆的城市天际线,第二张图片是北京的天际线。"
}
]
}
]
使用以上数据,使用 finetune_lora_single_gpu.sh 脚本微调出现错误
期望行为 | Expected Behavior
No response
复现方法 | Steps To Reproduce
No response
运行环境 | Environment
- OS:ubuntu22
- Python:3.10
- Transformers:4.32
- PyTorch:2.0.1
- CUDA (`python -c 'import torch; print(torch.version.cuda)'`):11.7
备注 | Anything else?
No response
Traceback (most recent call last):
File "/data/liwx/Qwen-VL/finetune.py", line 379, in
我也遇到了这个问题
同样遇到这个问题
感谢您的尝试,在inplace前先clone()就可以解决这个问题, 可以同步下huggingface上最新的模型代码,可以参考这个https://huggingface.co/Qwen/Qwen-VL-Chat/commit/e71876524333aa79e65b19c557c639175552e689
在加载Qwen-VL-Chat的绝对路径,使用最新的hugging face上的Qwen-VL-Chat文件,就不报这个错误了
感谢您的尝试,在inplace前先clone()就可以解决这个问题, 可以同步下huggingface上最新的模型代码,可以参考这个https://huggingface.co/Qwen/Qwen-VL-Chat/commit/e71876524333aa79e65b19c557c639175552e689
但是我修改后,运行 hugginface会冲掉我的修改,这个怎么解决?感谢
感谢您的尝试,在inplace前先clone()就可以解决这个问题, 可以同步下huggingface上最新的模型代码,可以参考这个https://huggingface.co/Qwen/Qwen-VL-Chat/commit/e71876524333aa79e65b19c557c639175552e689
但是我修改后,运行 hugginface会冲掉我的修改,这个怎么解决?感谢 这个问题已经解决了,要修改原来下载的文件内容而不是在.cache/transformer的文件内容,因为前者会覆盖后者的内容,因此在后面的文件改没有用
感谢您的尝试,在inplace前先clone()就可以解决这个问题, 可以同步下huggingface上最新的模型代码,可以参考这个https://huggingface.co/Qwen/Qwen-VL-Chat/commit/e71876524333aa79e65b19c557c639175552e689
但是我修改后,运行 hugginface会冲掉我的修改,这个怎么解决?感谢 这个问题已经解决了,要修改原来下载的文件内容而不是在.cache/transformer的文件内容,因为前者会覆盖后者的内容,因此在后面的文件改没有用
您好 请问一下,我只在 .cache目录下 才能找到这个文件,您说的“原来的文件”是手动下载的吗?
感谢您的尝试,在inplace前先clone()就可以解决这个问题, 可以同步下huggingface上最新的模型代码,可以参考这个https://huggingface.co/Qwen/Qwen-VL-Chat/commit/e71876524333aa79e65b19c557c639175552e689
但是我修改后,运行 hugginface会冲掉我的修改,这个怎么解决?感谢 这个问题已经解决了,要修改原来下载的文件内容而不是在.cache/transformer的文件内容,因为前者会覆盖后者的内容,因此在后面的文件改没有用
您好 请问一下,我只在 .cache目录下 才能找到这个文件,您说的“原来的文件”是手动下载的吗?
“原来的文件” 是你模型文件在本地下载好的路径,例如 /home/your_name/models/Qwen-VL-Chat/modeling_qwen.py", 而.cache 是你程序每次运行缓存的路径,会被覆盖,如果你的模型文件是自动下载的,那就修改$HOME/.cache/huggingface/transformers 里的文件