AdderNet
AdderNet copied to clipboard
咨询adderSR问题
你好,我在复现的过程中,有几个问题想请教:
- 由于论文中提到需要使用shortcut来实现恒等映射,所以网络中是不是没有独立的加法层(每个加法层都包含于一个残差块),因此是否意味着原始EDSR中的一些独立卷积层,都要用一个加法残差块来替代。
- 在您的论文中提到:the above function (power activation function) can be easily embedded into the conventional ReLU in any SISR models. 这个具体实现思路是什么?我可以直接在ReLU后面接一个power activation function吗?
你好,我重新阅读了一遍论文,纠正一下我的第二个问题,power activation function 置于加法层后面。对于以往正常的激活函数(如ReLU)还需要吗?需要的话它该放在哪个位置?还有就是shortcut位置是直接在加法层后面,还是在power activation function和bactchnorm的后面
你好,我重新阅读了一遍论文,纠正一下我的第二个问题,power activation function 置于加法层后面。对于以往正常的激活函数(如ReLU)还需要吗?需要的话它该放在哪个位置?还有就是shortcut位置是直接在加法层后面,还是在power activation function和bactchnorm的后面
请问你复现成功了吗