NAM
NAM copied to clipboard
一点代码细节
朋友我想问下,通道注意力机制实现最后,为什么是返回torch.sigmoid(x)*residual,而不是直接返回torch.sigmoid(x),看你那个图好像torch.sigmoid(x)就是输出特征图诶
然后γ作为尺度因子,请问有没有严谨的解释,希望你能看到0.0
I also have the same doubt. @Christian-lyc
确实,我也觉得代码有问题,应该把residual相关代码删掉才符合论文的公式和图解
我两种情况都跑了一遍,不乘residual效果非常差,乘了会涨点一点点,所以也许是论文表述有问题
@yunxi1 朋友你好,我刚接触深度学习,这篇代码我没怎么看懂,readme里面也就给了NAM三个字,能简单说一说这篇代码的结构和怎么运行吗?如果方便的话,可以用[email protected]联系我吗?真的非常谢谢!
唉,是真的不太行。我用来处理传感器数据的,还不如cam机制
他residual就是个封装, 你不在这个封装residual, 出去还是需要*特征图的。就是帮你简化了一步。 可以参考下CBAM实现就知道了