Results 4 issues of Kyle Bi

hello, have you changed the parameter size of the llama_proj module? ![image](https://user-images.githubusercontent.com/28759055/233894506-5dbf7a80-557d-4ca1-afaa-77e15dce4877.png) could you double check and re-update the stage1.pth?

具体情况: 在finetune阶段想完成图像分类任务,但一个batch内60%的图片的标签一致,那使用对比学习loss作为损失函数是不是就不太合适? 如果这种情况,除了降低batch_size,还有其他更好的办法吗?更换loss函数?

你好, 请问提供下载的test数据,是否即是文中提到的测试集?

I'm wondering what the training data you use? Thanks~