NAM icon indicating copy to clipboard operation
NAM copied to clipboard

一点代码细节

Open mxh1125587844 opened this issue 3 years ago • 7 comments

朋友我想问下,通道注意力机制实现最后,为什么是返回torch.sigmoid(x)*residual,而不是直接返回torch.sigmoid(x),看你那个图好像torch.sigmoid(x)就是输出特征图诶

mxh1125587844 avatar Dec 13 '21 03:12 mxh1125587844

然后γ作为尺度因子,请问有没有严谨的解释,希望你能看到0.0

mxh1125587844 avatar Dec 13 '21 03:12 mxh1125587844

I also have the same doubt. @Christian-lyc

haikunzhang95 avatar Mar 24 '22 08:03 haikunzhang95

确实,我也觉得代码有问题,应该把residual相关代码删掉才符合论文的公式和图解

yunxi1 avatar Apr 19 '22 11:04 yunxi1

我两种情况都跑了一遍,不乘residual效果非常差,乘了会涨点一点点,所以也许是论文表述有问题

yunxi1 avatar Apr 25 '22 02:04 yunxi1

@yunxi1 朋友你好,我刚接触深度学习,这篇代码我没怎么看懂,readme里面也就给了NAM三个字,能简单说一说这篇代码的结构和怎么运行吗?如果方便的话,可以用[email protected]联系我吗?真的非常谢谢!

HS12707 avatar Jun 05 '22 09:06 HS12707

唉,是真的不太行。我用来处理传感器数据的,还不如cam机制

zhangjinglin888 avatar Sep 02 '22 11:09 zhangjinglin888

residual就是个封装, 你不在这个封装residual, 出去还是需要*特征图的。就是帮你简化了一步。 可以参考下CBAM实现就知道了

yanwencheng000 avatar Feb 22 '23 16:02 yanwencheng000