deeplabv3-plus-pytorch icon indicating copy to clipboard operation
deeplabv3-plus-pytorch copied to clipboard

MIoU

Open xiamibudayang opened this issue 3 years ago • 7 comments

DeepLabv3+的论文中报告的MIoU大多在80以上,请问这其中的差距是什么原因造成的?怎样才能达到论文中的效果?

xiamibudayang avatar Oct 19 '21 07:10 xiamibudayang

我觉得。。我训练的batch实在比不上原作者

bubbliiiing avatar Oct 20 '21 14:10 bubbliiiing

我觉得。。我训练的batch实在比不上原作者

感谢解答。 我还有个问题,下面这段代码:

 #-------------------------------------------------------#
        #   转化成one_hot的形式
        #   在这里需要+1是因为voc数据集有些标签具有白边部分
        #   我们需要将白边部分进行忽略,+1的目的是方便忽略。
        #-------------------------------------------------------#
        seg_labels  = np.eye(self.num_classes + 1)[png.reshape([-1])]
        seg_labels  = seg_labels.reshape((int(self.input_shape[0]), int(self.input_shape[1]), self.num_classes + 1))

这里的白边部分在计算loss的时候被忽略了,对于我们不关心的类也可以用这种方法标注成白色,然后忽略掉。那么在预测的时候,是否也要根据真实标签将这些不关心类的像素涂成某种颜色?如果不这样做的话,这些类别的预测结果是否会很影响可视化效果?

xiamibudayang avatar Dec 05 '21 14:12 xiamibudayang

预测的时候怎么会知道真实标签呢

bubbliiiing avatar Dec 06 '21 15:12 bubbliiiing

哦哦,我是在验证集中做预测的才有了这种想法。确实,在预测的时候不知道真实标签,citycapes数据集有34类,但是做语义分割的时候只关心19类,我不知道该怎么处理剩下的类,是和你代码中的poscal voc的白边部分一样,不计算他的loss就可以了吗?

xiamibudayang avatar Dec 07 '21 01:12 xiamibudayang

是的,我看过计算citycapes的miou 的源码,是不关注的

bubbliiiing avatar Dec 07 '21 15:12 bubbliiiing

@bubbliiiing up主,你觉得大概需要训练多少个epoch,xception才能达到论文当中的miou=89.0,还有,请问up,仓库里给出的xception是和原论文当中的网络结构一样吗?

miscedence12 avatar May 28 '22 13:05 miscedence12

嗯? 原论文没有到89啊?什么数据集89? xception当然一样。

bubbliiiing avatar May 29 '22 01:05 bubbliiiing