bert_seq2seq icon indicating copy to clipboard operation
bert_seq2seq copied to clipboard

如何能联系到您呢?qq群加不进去,有关于epoch和bart做seq2seq方面的问题想请教一下> > 您好 在不断降低学习率之后loss还是卡在原来的位置,请问如何能与您取得联系?

Open chenzelong opened this issue 3 years ago • 5 comments

您好 在不断降低学习率之后loss还是卡在原来的位置,请问如何能与您取得联系?

我的也是,训练到第三个epoch,再往后loss就不变了,请问你解决了吗?

应该解决了,后来他加我微信了。

Originally posted by @920232796 in https://github.com/920232796/bert_seq2seq/issues/7#issuecomment-667139678

chenzelong avatar Apr 15 '22 03:04 chenzelong

学习率设置多少合适呀?我这loss一直不降

yc930401 avatar Jun 29 '22 02:06 yc930401

学习率设置多少合适呀?我这loss一直不降

一般1e-5即可,如果loss不下降甚至升高,考虑是不是代码哪里出问题了。

920232796 avatar Jun 29 '22 02:06 920232796

谢谢,可是代码我没改呀,只有加载数据部分稍作改动。

yc930401 avatar Jun 29 '22 02:06 yc930401

谢谢,可是代码我没改呀,只有加载数据部分稍作改动。

什么任务,哪个模型,而且你得打印下 确保输入输出是没问题的,并且看下验证的过程,看看是否能正常预测,不排除有时候某些模型loss确实是不会变化太大,但是能预测的很好。

920232796 avatar Jun 29 '22 02:06 920232796

输入输出都没问题,模型训练过程中每N个step输出一下test_data的结果,看着也还可以。我试了3个模型,gpt2、roberta、bart,都是loss越来越大。我再调调参数吧~谢谢啦

yc930401 avatar Jun 29 '22 02:06 yc930401