Jin L

Results 18 comments of Jin L

感谢回复,如果我只想在我的程序中使用CCNet网络,例如输入:[4,3,320,320],然后输出为[4,4,320,320],分割为4类,是不是应该修改网络forward代码:最后使用上采样得到输出? @Serge-weihao

您好,我这样修改ccnet.py的forward代码,不分别求loss,对x_dsn和x进行融合,然后进行分割,只对这一个结果与label求loss,可以吗? ``` def forward(self, x, labels=None): #print(111) size = (x.shape[2], x.shape[3]) x = self.relu1(self.bn1(self.conv1(x))) x = self.relu2(self.bn2(self.conv2(x))) x = self.relu3(self.bn3(self.conv3(x))) x = self.maxpool(x) x = self.layer1(x) x = self.layer2(x) #print(222)...

**dataset3最新版本调整:** - 原图:1890张320x320大小的原图和lable(有多种纯背景图,不平衡数据) - 数据增强:基于筛选的937张背景比例小的图像 - 单独的颜色抖动:1874张增强的image和label - 单独的随机的旋转:1874张增强的image和label - 单独的左右+上下翻转:1874张增强的image和label - 加入一些挑选的数据:道路信息明显的图像292张 - 连续增强:上下+左右翻转+随机40-180旋转(此处同时加强的数据292张) - 设置的spilt为5份,batch_size为6,为方便整除,挑选了26张的车辆信息显著的图像 - 连续增强:上下+左右翻转+随机40-180旋转(此处同时加强的数据26张) **数据量的汇总:共1890+5622+292+26 = 7830张训练图像**

**dataset4加入dsm高程数据调整记录:** - 原图:1890张320x320大小的原图、lable和dsm数据(有多种纯背景图,不平衡数据) - 数据增强:基于筛选的937张背景比例小的图像 - 单独的颜色抖动:1874张增强的image、label和dsm数据(后两者返回原数据) - 单独的随机的旋转:1874张增强的image、label和dsm数据 - 单独的左右+上下翻转:1874张增强的image、label和dsm数据 - 加入一些挑选的数据:道路信息明显的图像292张 - 连续增强:上下+左右翻转+随机40-180旋转(此处同时加强的数据292张) - 设置的spilt为5份,batch_size为6,为方便整除,挑选了26张的车辆信息显著的图像 - 连续增强:上下+左右翻转+随机40-180旋转(此处同时加强的数据26张) **数据量的汇总:共1890+5622+292+26 = 7830张训练图像**

**dataset5数据记录:** - 所有的dataset4数据;共7830张; - 202010new原图:1098张320x320大小的原图、label、dsm数据(已经筛选过) - 数据增强:基于筛选的1098张背景比例小的图像 - 单独的颜色抖动:1098张增强的image、label和dsm数据(后两者返回原数据) - 单独的随机的旋转:1098张增强的image、label和dsm数据 - 单独的左右+上下翻转:2196张增强的image、label和dsm数据 **数据量的汇总:共7830 + 1098x5 = 13320张训练图像**

**dataset6数据记录:** - 目的:添加测试的数量,一张测试集大图改为两张 - 所有的dataset4数据;共7830张; - 202010new原图:1019张320x320大小的原图、label、dsm数据(已经筛选过) - 数据增强:基于筛选的1019张背景比例小的图像 - 单独的颜色抖动:1019张增强的image、label和dsm数据(后两者返回原数据) - 单独的随机的旋转:1019张增强的image、label和dsm数据 - 单独的左右+上下翻转:2038张增强的image、label和dsm数据

**找到的源码:**[torchvision.models.detection.fasterrcnn_resnet50_fpn](https://github.com/pytorch/vision/blob/master/torchvision/models/detection/faster_rcnn.py) **源码中的描述,解释网络的在训练和测试时的输入输出:** ``` Implements Faster R-CNN. The input to the model is expected to be a list of tensors, each of shape [C, H, W], one for each image, and...

**pytorch教程中关于目标检测的Dataset类:**[TorchVision 对象检测微调教程](https://pytorch.apachecn.org/docs/1.4/8.html) 用于训练对象检测,实例细分和人员关键点检测的参考脚本可轻松支持添加新的自定义数据集。 数据集应继承自标准torch.utils.data.Dataset类,并实现__len__和__getitem__。 我们唯一需要的特异性是数据集__getitem__应该返回: - 图像:大小为(H, W)的 PIL 图像 - 目标:包含以下字段的字典 - boxes (FloatTensor[N, 4]):[x0, y0, x1, y1]格式的N个边界框的坐标,范围从0至W,从0至H - labels (Int64Tensor[N]):每个边界框的标签。0经常表示背景类 - image_id (Int64Tensor[1]):图像标识符。 它在数据集中的所有图像之间应该是唯一的,并在评估过程中使用 - area (Tensor[N]):边界框的区域。 在使用...