pandarusly
pandarusly
- [x] Disable all other plugins besides Copilot **(required)** - [x] Screenshot of note + Copilot chat pane + dev console added **(required)** Copilot version: v2.8.7 (Bug report without the...
我发现引用LEVIRCD这个数据集的大部分文章在制作数据时都会强制把训练/验证/测试集,按照无重叠度做成 256x256块。这样测试集上的128张1024图像会变成 2048个256x256小图像,然后在这个大小的测试集上进行模型测试。 通过我个人实验发现,相比直接使用1024大小的128张测试,上述的F1是会在不同算法下相对低0.4-1%不等的,并且f1很难达到0.92以上。个人认为这个差异在这个小数据集上已经能超过很多算法改进带来的提升。希望作者有时间能帮忙,看看f1能达到0.92-0.93以上的那些论文究竟是算法改进了,还是都采用了1024大小的测试推理这个“trick”。 下面我贴出,大佬的changer-segb0这个模型在model.test_cfg在 whole 与 slide(256,等价上述论文数据处理方式)下的测试结果。 | | whole 1024【与此仓库一致】 | slide 256 | slide 256 (1/4重叠度) | | --- | ---------- | --------- | --------- | |...
如果去掉 `cluster` 类进行评估 IoU 和 F1 的话,仅仅使用 pspnet-r101 就能在 Potsdam数据上的超越现有ViT预训练的UpertNet 架构。结果如下:  复现步骤: 数据准备,参照mmseg官方示例,如下 ```shell openxlab dataset get --dataset-repo OpenDataLab/ISPRS_Potsdam --target-path /DATA # 实验中需要使用 ‘2_Ortho_RGB.zip’ 和 ‘5_Labels_all_noBoundary.zip’ 。 仅保留这两个文件 mim...