deeplabv3-plus-pytorch
deeplabv3-plus-pytorch copied to clipboard
这是一个deeplabv3-plus-pytorch的源码,可以用于训练自己的模型。
 我换了weight 发现训练的时候一开始十几个epoch miou都不变的。。。 为啥啊
更换主干网络
再次感谢作者的代码,我想参考您yolov4中ghostnet和mobilenetv3替换该代码的mobilenetv2,麻烦作者给一些建议,谢谢你
可以使用数据集cityscapes来训练吗?
train出现尺寸不对
ValueError: Expected more than 1 value per channel when training, got input size torch.Size([1, 256, 1, 1])
所有的图片都是跳过了,导致所有评价指标都是0 Num classes 4 Skipping: len(gt) = 786432, len(pred) = 262144, /gpfs/home/cuilulu_stu/deeplabv3-plus-pytorch-main/VOCdevkit/VOC2007/SegmentationClass/17457--E2-2-2019-9-53.png, miou_out_66/detection-results/17457--E2-2-2019-9-53.png Skipping: len(gt) = 786432, len(pred) = 262144, /gpfs/home/cuilulu_stu/deeplabv3-plus-pytorch-main/VOCdevkit/VOC2007/SegmentationClass/12336--F2-1-2021-7-17.png, miou_out_66/detection-results/12336--F2-1-2021-7-17.png Skipping: len(gt) = 786432, len(pred) = 262144, /gpfs/home/cuilulu_stu/deeplabv3-plus-pytorch-main/VOCdevkit/VOC2007/SegmentationClass/7450--E2-2-2021-7-12.png,...
训练问题
@bubbliiiing up,我自己从新训练了你的deeplabv3+网络,也是采用的冻结训练,但是解冻后miou突然下降很多,请问这是什么问题? 下面是训练过程中的miou: 0 78.31419775054849 81.50547537615232 27.105109248288006 47.354731057269554 47.7181748097358 54.851383176103475 54.9375840188487 52.765164041864956 81.50之后就是解冻阶段。
MIoU
DeepLabv3+的论文中报告的MIoU大多在80以上,请问这其中的差距是什么原因造成的?怎样才能达到论文中的效果?
出现了过拟合现象
使用xception作为主干网络。 哥,对于您写的代码: 1、当pretrained=True 且model_path="model_data/xception_pytorch_imagenet.pth" 2、当pretrained=False且model_path="model_data/xception_pytorch_imagenet.pth" 3、当pretrained=True且model_path="" 对于以上三种情况,都只是加载了主干网络xception的预训练权重,是这样吗