AesopChow
Results
2
issues of
AesopChow
如题。 因为看模型对比里面有BERT-base基于clue_vocab训练的,做了速度对比。 ps: RoBERTa-large-clue词表和配置不一样。vocab大小是8021,config文件大小是21128。
题主的代码看着很舒服。 在数据输入中,每个batch随机抽取,个人感觉应该是每个epoch打乱之后遍历更合适。实验了一下准确率也更高。
AesopChow
如题。 因为看模型对比里面有BERT-base基于clue_vocab训练的,做了速度对比。 ps: RoBERTa-large-clue词表和配置不一样。vocab大小是8021,config文件大小是21128。
题主的代码看着很舒服。 在数据输入中,每个batch随机抽取,个人感觉应该是每个epoch打乱之后遍历更合适。实验了一下准确率也更高。