Wenming Tu
Wenming Tu
尝试在**5000**条左右的_refcoco_的test数据集上进行微调,发现效果不大,**precision只提高了1个百分点**,不知道是为什么? 除了在Image Grounding任务上进行微调,还在Image Caption任务上进行微调,性能提升都不大,不知道有什么建议???😭 使用的脚本也是官方提供的微调脚本以及遵循输入格式的要求。
您好,我们想使用QWen-VL-Chat进行一些训练,但是可能需要进行损失函数的修改之类的,不知道怎么修改呢,希望能提供一点建议,谢谢。
在`eval_mm/evaluate_grounding.py`文件中,关于prompt的设置,大致在170行左右, `prompt = '{}{}' ` 只有一个``,能够提示模型进行标框?
目前QwenVL支持加载微调后的lora,但是我们想尝试QwenVL的多LoRA切换,不知道有没有什么适配好的方法?