Fangyuan Kong
Fangyuan Kong
We train 1000 epochs at each stage and halve learning rate every 200 epoch.
x2和x4的预训练模型已更新。我们没有论文中其他方法的预训练模型。
You can normalize the features to 0-1 and store the image
neg = perform bicubic interpolation on LR pos = HR anchor = SR(model output)
ESA结构是RFANet提出的,我们论文Figure3的绘图结构保持RFANet一样。 关于ESA的改进我们仅减少了ConvGroups中卷积的个数,修改点可以和RFANet或RFDN的代码对比。查了一下RFANet和我们的绘图结构确实省略了代码里的conv_f部分,以代码为准。