self-llm icon indicating copy to clipboard operation
self-llm copied to clipboard

Qwen2-vl-2B Lora 微调 SwanLab 可视化记录版 @林泽毅

Open dadawdadD opened this issue 1 year ago • 2 comments

麻烦问下这个代码库中的数据集格式和qwen2-vl官网提供的数据集格式好像有点不一样,数据集格式看起来和qwen-vl的格式一样。另外想请问这个微调代码是参考的哪个和官网的有点不一样。最后想问一下这个lora微调后看起来并没有合并到原模型中,希望解答感谢

dadawdadD avatar Dec 12 '24 03:12 dadawdadD

你好,感谢你对代码的反馈:

  1. 代码是自己写的
  2. 在微调时,Qwen-VL格式的数据仍然可以适用于Qwen2-VL,这一块也可以看看Qwen2-VL-2B-LaTexOCR,这一块的代码做了更多的精简和改进,微调效果也work
  3. 推理实际已经加载了微调后的lora模型,可以看一下这两行,逻辑是先加载原预训练模型,然后再挂载lora训练后的模型。
model = Qwen2VLForConditionalGeneration.from_pretrained(
    "./Qwen/Qwen2-VL-2B-Instruct", torch_dtype="auto", device_map="auto"
)
model = PeftModel.from_pretrained(model, model_id="./output/Qwen2-VL-2B/checkpoint-62", config=config)

Zeyi-Lin avatar Dec 12 '24 08:12 Zeyi-Lin

你好,感谢你对代码的反馈:

  1. 代码是自己写的
  2. 在微调时,Qwen-VL格式的数据仍然可以适用于Qwen2-VL,这一块也可以看看Qwen2-VL-2B-LaTexOCR,这一块的代码做了更多的精简和改进,微调效果也work
  3. 推理实际已经加载了微调后的lora模型,可以看一下这两行,逻辑是先加载原预训练模型,然后再挂载lora训练后的模型。
model = Qwen2VLForConditionalGeneration.from_pretrained(
    "./Qwen/Qwen2-VL-2B-Instruct", torch_dtype="auto", device_map="auto"
)
model = PeftModel.from_pretrained(model, model_id="./output/Qwen2-VL-2B/checkpoint-62", config=config)

Hi, 请问这个Lora微调后该怎么通过web去调用?

mengdahuang avatar Jan 02 '25 15:01 mengdahuang