Longguang Wang

Results 89 comments of Longguang Wang

Hi @zhangyi-student , many thanks for your interest in our work. We plan to release the code before the conference.

Hi @zyf1040895256, 方便再贴一下整体的报错信息么,从这里提供的信息不太能确定是哪里的问题。

Hi @zyf1040895256, 请检查下[这里](https://github.com/LongguangWang/DASR/blob/main/option.py#L14)是不是设置为了False。另外请检查一下环境设置的可见GPU设备与指定的device id是否匹配。方便的话可以贴一下硬件环境以及具体的报错信息便于分析。

你的batch_size有改动么,如果没改动的话这个显存使用确实不太正常。

Hi @daifeng2016, thanks for your interest in our work. 1. First, blind SR is defined as super-resolving an LR image without knowing its degradation model. During test phase, our DASR...

Hi @15937612927, `option.py`中的`n_GPUs`需要与实际电脑中的显卡数量匹配。

Hi @15937612927, 正样本是在[这里](https://github.com/LongguangWang/DASR/blob/main/trainer.py#L65)生成的,即生成具有相同退化的两个LR patch,负样本是保存在moco中的[queue](https://github.com/LongguangWang/DASR/blob/main/moco/builder.py#L34)中。

Hi @zyf1040895256, 我们这里的取值参考里moco中K的设置。moco中K默认取值为65536,batch size为256,我们的batch size是32,所以将K设置为8192。关于K对性能的影响,我们之前做过一个简单的实验,减小K会造成性能轻微的下降,而进一步增大K基本不会带来性能增益。

Hi @zyf1040895256, 看复现的结果除了sigma=1.8外其他场景下与我们的结果差异都不是很大,甚至有些场景比我们文中的结果还要更好。我们网络中的退化表示学习部分属于无监督学习,无监督学习相比于有监督学习来说随机性更强一些,多次训练的性能波动更大一些。建议多train几次应该就可以得到更好的性能。

Hi @Salmashi,Table 2是在isotropic Gaussian kernels上进行的对比,表中kernel width对应tesh.sh中的[sig](https://github.com/LongguangWang/DASR/blob/main/test.sh#L10),而lambda_1和lambda_2是用来描述anisotropic Gaussian kernels的两个参数,对应Table 3中不同kernel的“高矮胖瘦”。