David Zhu
David Zhu
哈哈哈,我看了GDLoss这块的源码,我也尝试过xy_stddev_pearson和xy_wh_r的,也包括加入了grad_clip=dict(max_norm=35, norm_type=2),但是还是会发生NaN的,包括用了S2ANet那套IOU Loss,结果都NaN,但是用Smooth L1 Loss就不会出现梯度爆炸。emm,也可能是我的代码哪出了问题吧,我再debug一下; 哦对了,你有把你们的GDLoss用在S2ANet上么?比较想知道你们用GDLoss在S2ANet跑的效果,哈哈哈; 第二个问题是,会不会是因为刚开始训练那段时间的预测框定位的不够精准导致的NaN,也就是初期阶段IOU的确就趋近于0(但是可能性不大,因为我是要做label assignment的,阳性样本上不可能明显存在这种情况),然后就梯度爆炸了,我是有想过先用Smooth L1 loss训练,然后后面用GDLoss fine tuning一下的,但是这样没解决根本问题,模型训练还是不稳定; 第三个问题是,这个GDLoss训练时候稳定么?以及梯度回传是不是比较小,也就是说会不会难以收敛? 感谢您的答复~
Hello, is there any script that can support this function? I just want to print the pocket score that I've defined by centroid and pocket radius in advance.