hanyanLWD
hanyanLWD
你好,我也有同样的困惑,如果我预测物体只有一个类(包裹,label=1),大多数图片只有一个gt,这个时候我用0来填充gt,但是这个填充的gt,他的label是什么呢,我认为应该是1,但是我的模型结果很差
> 嗯我明白您的意思。那请问您在训练过程中有没有遇到这种问题: > 由于可能训练集中绝大部分的点都只有一个gt,那么就会导致预测的两个Bbox,其中一个对应gt的置信度一直很高(>0.9),比如是Bbox0,而另一个Bbox1对应的置信度一直很低( 或者说大部分的数据都是只有一个gt,而另一个需要对应0的,这就导致两个预测的head网络产生记忆,多轮训练之后固定其中一个Bbox0预测的置信度很高,另一个Bbox1预测置信度很低。也就是我认为由于两个gt重叠一个anchor的情况极少,没有得到充分训练,导致网络训练的结果倾向于只预测一个高置信度的边界框,比如Bbox0(或Bbox1)即可达到损失收敛。 > 我表达的不是很好,不知道您是否能清楚。总之这是我现在运用您的方法预测两个box遇到的困境,谢谢您啦! 你好,我也有同样的困惑,如果我预测物体只有一个类(包裹,label=1),大多数图片只有一个gt,这个时候我用0来填充gt,但是这个填充的gt,他的label是什么呢,我认为应该是-1,相当于ignore掉,但是我的模型结果很差,map很低
> > > 我跑了他的代码 我的loss也有震荡的 因为他是每个GPU上的loss都print了一下 最后结果和readme差不多 或许跟你的batch size有什么关系?它最后的lr我记得是根据bs和卡数来算的 你看下能不能最后对上0.02的lr > > > ps 一直想问下作者,该实现和mmdet上faster rcnn的实现除了以下几点还有别的区别吗: > > > > > > * RPN是all level NMS > > > *...
@zehuichen123 谢谢,我把emd部分移植到了mmdet faster rcnn中,但是map的结果很差,但是loss正常下降,不知道是什么原因
@zehuichen123 在我的数据集中密集物体是比较少的,对于只有一个gt的图片,我是在gt中额外生成了一个gt=[0,0,0,0,-1],就是说这个假的gt框是全零,label是-1 ,这样做法对吗