Adan
Adan copied to clipboard
在我的cnn模型中,lr=0.01时,在20-30epoch,map可以提升的很快但是后续会成为NAN。但是如果使用0.001不会直接为NAN,但是效果不好,请问这个现象代表着什么问题?谢谢!
请问,效果不好,是最终的效果不好,还是说开始的效果不好?
请问其他关于lr以及优化器的参数方便提供一下吗?并且baseline相关的参数也可以提供。
请问,效果不好,是最终的效果不好,还是说开始的效果不好?
请问其他关于lr以及优化器的参数方便提供一下吗?并且baseline相关的参数也可以提供。
adan使用lr=0.001,betas=(0.98, 0.92, 0.99),最终map会降低1%左右。
绿色是baseline使用的SGD,lr=0.01,momentum=0.999。当我的模型中backbone使用THU的纯卷积搭建的重参数化Repvit时,使用adan=0.01在训练中途直接NAN。是否是因为RepDWConv?
应该不是DWconv的问题,看样子Adan像过拟合了。可以尝试:
- 加一点weight_decay: weight_decay=0.01
- 或者grad_clip: max_grad_norm=1.0或者0.5或者0.1
- 调整beta3: betas=(0.98, 0.92, 0.999),你也可以试着调整beta1,Adan的beta1等价于Adam的beta1或者SGD的momentum。不过我的经验是,Adan beta1不是特别敏感。
- 可以引入Warmup lr的机制,将lr逐步增大到你想要的值。
个人觉得前3条能解决你的问题。
另外,SGD的momentum用0.999的话,很奇怪,0.999基本上是完全抛弃了后边的梯度。大部分SGD的momentum都在0.9-0.95之间。
应该不是DWconv的问题,看样子Adan像过拟合了。可以尝试:
- 加一点weight_decay: weight_decay=0.01
- 或者grad_clip: max_grad_norm=1.0或者0.5或者0.1
- 调整beta3: betas=(0.98, 0.92, 0.999),你也可以试着调整beta1,Adan的beta1等价于Adam的beta1或者SGD的momentum。不过我的经验是,Adan beta1不是特别敏感。
- 可以引入Warmup lr的机制,将lr逐步增大到你想要的值。
个人觉得前3条能解决你的问题。
另外,SGD的momentum用0.999的话,很奇怪,0.999基本上是完全抛弃了后边的梯度。大部分SGD的momentum都在0.9-0.95之间。
十分感谢您的建议!我试着尝试一下