Remote-Sensing-RVSA
Remote-Sensing-RVSA copied to clipboard
The official repo for [TGRS'22] "Advancing Plain Vision Transformer Towards Remote Sensing Foundation Model"
sampling_angle_v = self.sampling_angles_v(x) sampling_angle_v = sampling_angle_k.reshape(num_predict_total, 1, window_num_h, window_num_w) 这里代码是不是应该为 sampling_angle_v = self.sampling_angles_v(x) sampling_angle_v = sampling_angle_v.reshape(num_predict_total, 1, window_num_h, window_num_w)
Hello, if it is possible could you provide an example on how to load the pretrained weights of, for example, the ViTAE-B backbone on the pretraining model trained on the...
您好,我在使用RVSA仓库中所给出的potsdam_vitae_rvsa_kvidff.pth权重进行推理时,结果有所出入,config文件除data_root以外未作修改。我的结果如下:  RVSA仓库中的log日志结果为 "aAcc": 0.9115, "mIoU": 0.8307, "mAcc": 0.9005, "mFscore": 0.9061, "mPrecision": 0.9124, "mRecall": 0.9005;两者所有指标差0.3%左右,我不太确定这是否可以认为两个结果是对齐的。 我的测试集是使用mmseg官方脚本对‘2_Ortho_RGB.zip'’和‘5_Labels_all.zip'’进行划分,最后得到2016张512x512的测试集。虽然我猜测与测试集划分相关,但使用rsp_r50权重进行推理时,精度是能基本对齐的。https://github.com/ViTAE-Transformer/RSP/issues/15 我确实不太理解造成这种状况的原因,期待您的回复。
我使用仓库主页提供的训练好的模型以及配置文件对Dota的test数据集进行推理,但是结果mAP仅有0.39. 下图为我所用的模型:  配置文件:  测试指令: CUDA_VISIBLE_DEVICES=0 python /home/pp/OBBDetection/tools/test.py '/home/pp/Remote-Sensing-RVSA/Object Detection/configs/obb/oriented_rcnn/vit_base_win/faster_rcnn_orpn_our_rsp_vitae-nc-base-win-rvsa_v3_kvdiff_wsz7_fpn_1x_dota10_lr1e-4_ldr75_dpr15.py' '/home/pp/Model/vite_b_RSVA_kvdiff_ls/vitae_rvsa_kvdiff.pth' --format-only --show-dir '/home/pp/Model/vite_b_RSVA_kvdiff_ls/work_dirs/save' --options save_dir='/home/pp/Model/vite_b_RSVA_kvdiff_ls/work_dirs/save_val' nproc=1 提交给dota官方评估的结果: 
请问训练分割时tools/train文件在哪
当我加载vitae-b-checkpoint-1599-transform-no-average.pth时,出现了如下错误,我使用的数据集时potsdam Error(s) in loading state_dict for ViTAE_NC_Win_RVSA_V3_WSZ7: size mismatch for pos_embed: copying a param with shape torch.Size([1, 197, 768]) from checkpoint, the shape in current model is torch.Size([1, 1024, 768])....
请问论文中以ViT-B作为骨干网络,oriented rcnn检测方法,MAE预训练这一项的权重和代码是否公开
作者您好,想向您请教下您是如何从预训练的ViT-B或ViTAE-B主干权重得到的分割任务中ViT-B + RVSA这里的权重呢,这一步的代码在哪里?也就是说如果我直接使用您的ViT-B或ViTAE-B预训练权重要怎样处理才能得到能用于mmsegmentation里pretrained=字段能够使用的权重呢?期望您的回复,感谢🙏。
