lczhang06

Results 1 comments of lczhang06

因为中文版的RoBERTa相比于BERT使用了更多数据和不同的训练方法但模型结构相同。模型主页有说明: [https://github.com/ymcui/Chinese-BERT-wwm](https://github.com/ymcui/Chinese-BERT-wwm)