CLUEPretrainedModels icon indicating copy to clipboard operation
CLUEPretrainedModels copied to clipboard

高质量中文预训练模型集合:最先进大模型、最快小模型、相似度专门模型

Results 15 CLUEPretrainedModels issues
Sort by recently updated
recently updated
newest added

如题。 因为看模型对比里面有BERT-base基于clue_vocab训练的,做了速度对比。 ps: RoBERTa-large-clue词表和配置不一样。vocab大小是8021,config文件大小是21128。

众所周知,百X云盘对下载速度的限制。以及必须安装客户端。导致办公网络无法下载

句子对任务的RoBERTa-tiny-pair的ckpt文件里面为什么没有pool层出口处的(312,2)的张量权重呢,就是"cls/seq_relationship"下的“output_weights”和”output_bias“”?,没有这个怎么得到相似与否的概率值呢?难道这个相似度计算是由pool出口的向量用余弦相似度计算的?

请问,这两个超小型模型有什么不同吗,RoBERTa-tiny-pair 支持输出一个句子的向量,然后再通过计算余弦的方式来计算相似度吗,还是只能输入两个句子,通过分类的方式判断二者是否相似,如果是后者的话,易用性和扩展性上是否不及前者的方式,请大佬指教!

example中可能需要改为 `from transformers import AdamW, get_linear_schedule_with_warmup` 等