Yzs007

Results 13 comments of Yzs007

您好,我想请教一下一个问题。就是论文中用来对比的那些算法全都要自己跑一遍吗? 还是用原作者得出的指标(PSNR/SSIM)和原作者的预训练模型?

> Have you solved this problem yet? I am currently experiencing the similar problem.If convenience,could you help me? from torchsummaryX import summary if __name__=='__main__': scale = 4 input = torch.zeros(1,...

> Have you solved this problem yet? I am currently experiencing the similar problem.If convenience,could you help me? What's your problem?

> 非常感谢!

> A ->None是完全不用A模块;A->B是指A用B替换 特征图可视化的伪代码如下: > > ``` > feat = model(input) > feat = feat.squeeze().cpu().numpy() > feat = np.mean(feat, axis=0) > plt.figure() > plt.imshow(feat) > plt.savefig('./save_path/feat.png') > ``` > >...

> 你有加载预训练模型吗? 确实忽略了这个。感谢大佬帮助

大佬,小白再问一个问题,网络结构没变,训练的参数完全一致,随机种子也固定,为什么每次训练后的结果还是会有差别呢?还是这是正常现象呢?

> 好的,谢谢!

> > 大佬,小白再问一个问题,网络结构没变,训练的参数完全一致,随机种子也固定,为什么每次训练后的结果还是会有差别呢?还是这是正常现象呢? > > 这是正常的,主要是由于网络模型的权重和偏置是随机初始化的,随机种子只是决定了参数初始化的分布,这样每一次采样到的初始权重参数是不一样的,就会导致结果有些差别,但最终都会收敛到一个合理的范围内。 佬,我又冒出一个问题,既然训练不稳定, 那么消融实验怎么做呢?

> > > > 大佬,小白再问一个问题,网络结构没变,训练的参数完全一致,随机种子也固定,为什么每次训练后的结果还是会有差别呢?还是这是正常现象呢? > > > > > > > > > 这是正常的,主要是由于网络模型的权重和偏置是随机初始化的,随机种子只是决定了参数初始化的分布,这样每一次采样到的初始权重参数是不一样的,就会导致结果有些差别,但最终都会收敛到一个合理的范围内。 > > > > > > 佬,我又冒出一个问题,既然训练不稳定, 那么消融实验怎么做呢? > > 同样的setting下,最终的结果是非常接近的,不会有多大的误差。 orz !!