Wang AnWen
Wang AnWen
following up...
> should be x.mean(dim=1) (before reshaping to B*C*H*W) reference: https://github.com/whai362/PVT/blob/cceb465b7dfb2b7a48b39074a14a04dedab427e8/classification/pvt_v2.py#L292 Could you tell me the detailed process about the ImageNet1K pretrain,for example, for Segformer-B2, the output of backbone is a...
> Thanks! > […](#) > ------------------ 原始邮件 ------------------ 发件人: "Anirudh ***@***.***>; 发送时间: 2022年4月11日(星期一) 中午11:59 收件人: ***@***.***>; 抄送: ***@***.***>; ***@***.***>; 主题: Re: [tobyperrett/trx] Kinetics-100 (Issue #14) @yubin2020 The kinetics-100 can be found via...
> 不同预训练权重最后得到的结果表现太不一样了 如果用博主提供的VOC上的预训练权重 则表现很好 比较正常 但是如果使用非VOC上的预训练权重 表现很差 甚至用b5性能表现不如b2_VOC 不知道怎么回事? > > 还有一个其他的问题就是 如果有时间的话,博主能不能更新一些其他的语义分割网络?比如SegNeXt. b0-b5的backbone应该是在ImageNet上训练的分类任务,迁移到语义分割任务效果不好是正常的,尽量在公共语义分割数据集上预训练