Dynamic-convolution-Pytorch
Dynamic-convolution-Pytorch copied to clipboard
请问一下,这里的attention2d,是什么类型的attention机制呢?
我是按照《Dynamic Convolution: Attention over Convolution Kernels》这篇文章实现的。文章中图示了他的attention,就是简单的加权求和。

使用了SE block外加一个Softmax来生成注意力,属于通道注意力吧,不过是对卷积核的通道