Kyle Bi
Kyle Bi
hello, have you changed the parameter size of the llama_proj module?  could you double check and re-update the stage1.pth?
具体情况: 在finetune阶段想完成图像分类任务,但一个batch内60%的图片的标签一致,那使用对比学习loss作为损失函数是不是就不太合适? 如果这种情况,除了降低batch_size,还有其他更好的办法吗?更换loss函数?
你好, 请问提供下载的test数据,是否即是文中提到的测试集?
I'm wondering what the training data you use? Thanks~