CLUE
CLUE copied to clipboard
请问roberta为什么全采用BertConfig, BertForSequenceClassification, BertTokenizer?
请问roberta为什么全采用BertConfig, BertForSequenceClassification, BertTokenizer? 为什么不采用RobertaConfig, RobertaForSequenceClassification, RobertaTokenizer?之间有什么区别吗
同问
因为中文版的RoBERTa相比于BERT使用了更多数据和不同的训练方法但模型结构相同。模型主页有说明: https://github.com/ymcui/Chinese-BERT-wwm