UER-py
UER-py copied to clipboard
在训练BERT时, Loss突然增大且模型无法继续学习
我在训练BERT时使用了BookCorpus+Wikipedia-en数据,训练参数设置了batch_size=5120,warmup=0.1,learning_rate=4e-4,使用deep_init,没有用混合精度,steps(计算了40个epochs)=240k。但是在127k步左右突然Loss增大性能下降,且之后模型停止学习。请问这个可能是什么原因导致? (Log如下所示)
之后模型就一直无法学习了
模型用的哪个配置呢?可能是lr太大
用的是Base的,因为batch_size比较大所以稍微放大了一点
模型用的哪个配置呢?可能是lr太大
我尝试一下用更小的lr再试一下,谢谢您的回复!