deeplabv3-plus-pytorch
deeplabv3-plus-pytorch copied to clipboard
MIoU
DeepLabv3+的论文中报告的MIoU大多在80以上,请问这其中的差距是什么原因造成的?怎样才能达到论文中的效果?
我觉得。。我训练的batch实在比不上原作者
我觉得。。我训练的batch实在比不上原作者
感谢解答。 我还有个问题,下面这段代码:
#-------------------------------------------------------#
# 转化成one_hot的形式
# 在这里需要+1是因为voc数据集有些标签具有白边部分
# 我们需要将白边部分进行忽略,+1的目的是方便忽略。
#-------------------------------------------------------#
seg_labels = np.eye(self.num_classes + 1)[png.reshape([-1])]
seg_labels = seg_labels.reshape((int(self.input_shape[0]), int(self.input_shape[1]), self.num_classes + 1))
这里的白边部分在计算loss的时候被忽略了,对于我们不关心的类也可以用这种方法标注成白色,然后忽略掉。那么在预测的时候,是否也要根据真实标签将这些不关心类的像素涂成某种颜色?如果不这样做的话,这些类别的预测结果是否会很影响可视化效果?
预测的时候怎么会知道真实标签呢
哦哦,我是在验证集中做预测的才有了这种想法。确实,在预测的时候不知道真实标签,citycapes数据集有34类,但是做语义分割的时候只关心19类,我不知道该怎么处理剩下的类,是和你代码中的poscal voc的白边部分一样,不计算他的loss就可以了吗?
是的,我看过计算citycapes的miou 的源码,是不关注的
@bubbliiiing up主,你觉得大概需要训练多少个epoch,xception才能达到论文当中的miou=89.0,还有,请问up,仓库里给出的xception是和原论文当中的网络结构一样吗?
嗯? 原论文没有到89啊?什么数据集89? xception当然一样。