Mr.Fire
Mr.Fire
这个情况应该跟单色背景无关,你确定其它图片能正常检测吗?经验来说要么是数据处理的问题,要么是没训练好。
那就有点奇怪了,可以尝试多加点这种数据训练,数据增强也多加一些颜色变换。
这里decode只是为了计算acc,用于计算loss的是decode之前的特征图,因此实质上对训练没有任何影响。 因为生成Dataloader的时候的labels转成了heatmap特征图的形式,用于计算loss,因此这里拿到的也是heatmap,计算acc自然就要转换回去。 而且pre和gt都经过decode可以保持流程一致,方便前期debug,前期编写decode流程的时候是先根据gt来测试验证一致(这也说明了不会存在误差。),再改到pre上,因为pre前期波动太大了不好测试。 当然你可以在dataloader多输出一个原始结果,用于计算acc,没有区别。
Maybe you could try to copy the weights from the officail model to initial this model, but I am not sure it can match all the layers.
这个问题问的很好,这里的n应该代表了InvertedResidualBlock中的残差模块重复次数,残差本身是对应像素直接相加,因为其特征图是同样尺寸且包含同样语义,那么借助卷积核的共享权重思想,这里的整个模块理论上也是可以共享权重的。 这种方案优点应该是可以降低模型复杂度,减少过拟合,缺点可能就是学习能力相对差一些。 文章中也提到当时我复现的时候没有用现有的模型代码,而是自己一层一层照着结构搭建出来的,这里的复用最开始只是方便代码编写,因此我建议你也可以试试原始这种不共享权重的方式来训练对比看看是否能提升精度。
测试了下修改不复用后,acc提升了0.005个点,已经更新。 当时的确没想那么多,感谢指出。
自己翻前面issue啊 说了dbnet原始项目
Didn't you see the code below? ` if img0_tuple[1] !=img1_tuple[1]: break `
I have changed to Mobilenet-v3 and run successfully, got even better result than the original model. I moved the global average pooling and all layers after it, then add 3...
我也遇到了这个问题,试了下,注释这一句就可以了 config.gpu_options.per_process_gpu_memory_fraction = 0.95 然后遇到了OOM报错,降低batchsize了只有,降到8跑起来了