Mashiro

Results 68 comments of Mashiro

@makecent Hi~, Thanks for your suggestions. Considering that there may be some hooks after `EvalHook` that require the model to remain in `eval` state, therefore we do not call `model.train`...

Hi~ We recently did an architectural upgrade and released [`MMEngine`](https://github.com/open-mmlab/mmengine), and we suggest to use [Config](https://github.com/open-mmlab/mmengine/blob/e56b1736c14a8ac7b94d578fc5162213e056628d/mmengine/config/config.py#L93) in `MMEngine`. It can load config from other repos like this: ```python _base_ =...

> Also invite @HAOCHENYE to see if this need to be migrated into MMEngine. Yes, `worker_init_fn` in `MMEngine` should also be updated. BTW, it seems `seed` is not used here...

另外使用BN和GN,其loss是差不多的,但是就是一用BN,map就掉没了。难道是BN不适合shared head么

> 你好,topk4换成卷积是采用conv1x1 然后channel改成4这样修改吗?我看到论文的也是在想这个topk的部署问题 是的,按理说如果dfl训练的足够好,应该有个波峰,用conv1x1理论上有近似的效果。请问你有试过BN么,为啥我以用BN,map就直接崩了

> 还没有尝试修改bn,我时在另外的框架实现的,没有基于作者的代码训练。根据之前的分割网络的经验,GN改BN会有一些掉点 不是掉点的问题了。。。map直接没了。因为mmdet里默认用的是shared head,我稍微改了以下代码,让FPN每个层都有独立的检测头,再替BN,精度就回去了。 到底是我训练配置的问题还是shared head不能用BN呢。我人都傻了

> 可能是Batch size 太小,BN不好训练。 不是呀,bs 20,感觉不小呀

> > > 还没有尝试修改bn,我时在另外的框架实现的,没有基于作者的代码训练。根据之前的分割网络的经验,GN改BN会有一些掉点 > > > > > > 不是掉点的问题了。。。map直接没了。因为mmdet里默认用的是shared head,我稍微改了以下代码,让FPN每个层都有独立的检测头,再替BN,精度就回去了。 > > 到底是我训练配置的问题还是shared head不能用BN呢。我人都傻了 > > FPN各个层特征之间可能还是存在差异,共享BN参数可能存在问题,之前我也尝试过,把BN换成不共享就可以了 比较奇怪的是,我用共享BN时,loss还是正常收敛的。不过的确换成不共享的head问题就解决了

> 你好,我在工程中并没有到GFLv2相应的代码.想问下你找到了吗? 主体代码在mmdet models densehead/losses 下的gfocalxx下

> > Hi! I've been following gfl for some time, and it's a great work. > > Actually, the uncertainty of bbox's distribution could produce some bad results sometime in...