Chinese-CLIP
Chinese-CLIP copied to clipboard
关于完全在自己的数据集上的训练
您好,我想问一下,能不能完全不需要微调,从头训练自己的数据集呢?要是可以的话我该如何设置训练脚本呢?
可以用您这边提供的这几个example吗?要是我选用muge_finetune_vit-b-16_rbt-base.sh的话,哪些参数我需要注释掉?可以用于从头开始训练呢?不需要依靠已经训练好的权重。
您好,不知道您指的从头训练是指完全随机初始化文本侧模型和视觉侧模型,还是在英文CLIP和中文Roberta参数的基础上从头训练。
如果是前者,您可以尝试在训练脚本去掉--resume
参数,这个参数为加载的Chinese-CLIP模型路径。
如果是后者,除了去掉--resume
的同时,还需要分别设置--clip-weight-path
和--bert-weight-path
参数来加载英文CLIP和中文Roberta进行初始化。
您好,请问能方便share一下原始的CLIP视觉和Roberta模型权重文件吗?--clip-weight-path和--bert-weight-path
@Xujianzhong 您好,没有问题哈:
- 视觉侧原始CLIP权重(格式已转好),用于在预训练中文CLIP时,初始化视觉侧
- RN50:https://clip-cn-beijing.oss-cn-beijing.aliyuncs.com/checkpoints/init_weights/RN50/RN50.state_dict.pt
- ViT-B-16:https://clip-cn-beijing.oss-cn-beijing.aliyuncs.com/checkpoints/init_weights/ViT-B-16/ViT-B-16.state_dict.pt
- ViT-L-14:https://clip-cn-beijing.oss-cn-beijing.aliyuncs.com/checkpoints/init_weights/ViT-L-14/ViT-L-14.state_dict.pt
- ViT-H-14(Laion):https://clip-cn-beijing.oss-cn-beijing.aliyuncs.com/checkpoints/init_weights/ViT-H-14/ViT-H-14.state_dict.pt
- 文本侧原始Roberta权重(格式已转好),用于在预训练中文CLIP时,初始化文本侧
- RBT3:https://clip-cn-beijing.oss-cn-beijing.aliyuncs.com/checkpoints/init_weights/chinese_rbt3/pytorch_model.bin
- Roberta-base-wwm-ext:https://clip-cn-beijing.oss-cn-beijing.aliyuncs.com/checkpoints/init_weights/chinese_roberta_wwm_base_ext/pytorch_model.bin
- Roberta-large-wwm-ext:https://clip-cn-beijing.oss-cn-beijing.aliyuncs.com/checkpoints/init_weights/chinese_roberta_wwm_large_ext/pytorch_model.bin
如果有更多问题,欢迎继续留言。如果觉得Chinese-CLIP代码库对您有帮助,请您为我们点点star⭐️并推荐给身边的朋友们!
您好,我是在官网上找的
------------------ 原始邮件 ------------------ 发件人: @.>; 发送时间: 2023年6月29日(星期四) 下午5:18 收件人: @.>; 抄送: @.>; @.>; 主题: Re: [OFA-Sys/Chinese-CLIP] 关于完全在自己的数据集上的训练 (Issue #139)
您好,请问能方便share一下原始的CLIP视觉和Roberta模型权重文件吗?--clip-weight-path和--bert-weight-path
— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>
想问一下如果是用clip在自己的训练集重新训练的话,怎么微调模型呢。