AdderNet
AdderNet copied to clipboard
Code for paper " AdderNet: Do We Really Need Multiplications in Deep Learning?"
请问文章里用到的VGG-small是一个怎样的网络模型?
您好,请问可以分享一下关于AdderNetSR的代码吗,想学习一下,谢谢。
咨询论文中的公式
1)想问一下论文3.3节中公式(9) 那条计算addnet输出方差的公式,公式的第一行是怎么推到 (1-2/π)... 这一行的呢 2)还是3.3节,公式(11) ,想问下损失对于xi的偏导这条公式是怎么得来的 3)3.3节公式(13) 本地学习率α的公式,为什么α采用这种形式就能够使各层以相同的步数更新呢 谢谢
你好,我在复现的过程中,有几个问题想请教: 1. 由于论文中提到需要使用shortcut来实现恒等映射,所以网络中是不是没有独立的加法层(每个加法层都包含于一个残差块),因此是否意味着原始EDSR中的一些独立卷积层,都要用一个加法残差块来替代。 2. 在您的论文中提到:the above function (power activation function) can be easily embedded into the conventional ReLU in any SISR models. 这个具体实现思路是什么?我可以直接在ReLU后面接一个power activation function吗?
Hello! Why do you use nn.Conv in the ResNet (self.conv1 and self.fc)? Shouldn't they be implemented with adder?
作者您好: 非常感谢您的工作和代码的分享,对我带来了很大的启发。这里想要咨询您一下,Table 2中的Mul、Add和XNOR的参数量是如何统计的呢? 期待您的回复!感谢!!!
您好。请问您现在公布的两个预训练模型,是否分别是cifr10-resnet20, Imagenet-resnet50? 可否公布resnet18和resnet20在imagenet上的预训练模型。 因为我们缺乏足够的算力,很难自己完成imagenet上的预训练。 谢谢!
Hi, I saw the results for "AdderSR : Towards Energy-Efficient Image Super-Resolution" and they are pretty impressive! Near to the same results with the current SOTA with far lesser FLOPs...
Hello, I want to realize the Transposed Adder layer according to the relationship between convolution and transposed convolution, but from the result I found that the image it generates has...