brightmart
brightmart
if i am not get wrong, albert large require big memory than bert base, it could be like requirement for bert large.
收到问题
你好。提交样例,只是部分示例,是不全的(即不包含测试集上的所有预测)。只有完全的提交才会提交成功。
if you want to use albert_xlarge_zh in pytorch, you can check here: https://github.com/brightmart/albert_zh
yes, please create a PR. thanks
你好,你可以使用稍大一点的epoch,如从3增加到6。
你好,感谢反馈问题。 #1、目前没有tnews1.1上的各个baseline详细的分数。在BERT类模型上与1.0分数是总体是一致的; #2、测试集上1.0由于已经使用2年左右,存在过拟合的情况; #3、1.1版本测试集没有提供keyword,是由于CLUE的测试中即使是1.0版本的也没有使用keyword,即这个字段其实本身是没有用到的。如还有问题,也可以邮件联系:[email protected]
57.42是Tnews,使用RoBERTa-wwm-large,在test 1.1测试集上的分数。
收到反馈。稍后进行一次反馈。
感觉靠谱啊。 @beyondguo