lczhang06
Results
1
comments of
lczhang06
因为中文版的RoBERTa相比于BERT使用了更多数据和不同的训练方法但模型结构相同。模型主页有说明: [https://github.com/ymcui/Chinese-BERT-wwm](https://github.com/ymcui/Chinese-BERT-wwm)