干煸豆角
干煸豆角
this error still exists in the newest version of mmrotate. here is the full output while training the model. @yuyi1005 @liuyanyi ```shell "D:\Program Files\Anaconda3\envs\ZDX\python.exe" F:/ZDX/mmrotate/tools/train.py configs/psc/rotated-retinanet-rbox-le90_r50_fpn_psc-dual_amp-1x_dota.py 08/31 16:58:45 - mmengine...
在你提到的文件下的rbox2qbox函数。
一些实验细节:将BoxGn生成的规则转换成旋转框的规则,原来是对水平框的四个边分别进行偏移,我这边是对旋转框的宽高和角度分别进行偏移,使用的数据集是DOTA数据集,基线网络Oriented R-CNN,下面是基线网络与改进后的网络训练日志 [BACL_representation.log](https://github.com/Tianhao-Qi/BACL/files/14974852/BACL_representation.log) [BACL_classification.log](https://github.com/Tianhao-Qi/BACL/files/14974855/BACL_classification.log)
作者您好,我尝试将您的代码改进到旋转目标检测中,使用的数据集是DOTA数据集,该数据集同样存在长尾分布的问题,我尝试将您的方法应用到旋转目标检测中以用来解决这个问题,使用的基线算法分别使用[LSKNet](https://github.com/zcablii/LSKNet)与[Oriented R-CNN](https://github.com/open-mmlab/mmrotate/tree/main/configs/oriented_rcnn),这两个基线算法同样都是应用于旋转目标检测的两阶段的算法,关于具体的实现,我发现您代码中关于BoxGn文件是通过将标签中水平框的边界随机增加偏移量来实现的,我尝试将其应用到旋转目标的表示方式中(x,y,w,h,theta),对w和h(旋转目标的宽高)和theta(旋转目标的角度)分别做相对于自身的[-1/6,1/6]的随机偏移量,结果发现其训练效果并不理想,想问一下作者可能是因为什么原因呢?关于具体细节的代码您可以帮我看看具体找下原因吗? (我这边具体的实验细节跟您公开的差不多,同样分成了两个阶段,第二个阶段开启FHM,reweight和冻结训练)
> 你好,这个方法我们只在两阶段检测器上尝试过,没有在单阶段检测器上测试过,可以先在分类头上尝试一下,如果有问题可以深入讨论下~ 首先感谢大佬的回复!!!有几个问题想向您请教下。 1.我看到您的代码发现在损失函数中应用了Balanced Group Softmax的思想,但是网络损失函数的计算中却并没有进行Softmax操作,只在update_cm中有相关的操作。想问一下原因。 2.如果移植到单阶段模型中的话,还需要考虑前景背景平衡的问题,针对这个问题我想到了两个解决方案,想问一下作者我做的大致思路是否正确 (1)背景类别使用focal loss计算损失,前景类别使用您提到的FCBL损失。 (2)前景背景都使用FCBL损失,但需要分开计算并取相应的平均(如前景10个,背景10000个,那么计算出来的损失=前景/10+背景/10000) 3.关于FHM模块移植到单阶段的问题,单阶段分类头直接通过特征图得到分类结果,有什么好的思路分类头上进行特征增强呢?
> > 如题,这个方法可以用在单阶段的模型中吗,如果能用在单阶段模型中的话,又需要对哪些部分进行改动呢? > > 你好,请问你找到改动方式了吗 暂时还没有想法呢,准备过一个月改改试试