Multihead-Attention
Multihead-Attention copied to clipboard
将自注意力机制加入textcnn卷积后池化前,数据维度会改变吗
不会吧,自注意力就是改了下序列的权重分布,不影响维度吧