LKCA:大卷积核关注
原文中文,约400字,阅读约需1分钟。发表于: 。我们重新审视了注意力机制与大内核卷积神经网络在视觉转换器中的关系,并提出了一种称为大内核卷积注意力(LKCA)的新空间注意力机制。它通过将注意力操作替换为单个大内核卷积来简化注意力机制。LKCA 结合了卷积神经网络和视觉转换器的优势,具有大的接受域、局部性和参数共享特点。我们从卷积和注意力的角度解释了 LKCA 的优势,并为每个视角提供了等效的代码实现。实验证实,从卷积和注意力的角度实现的...
本文重新审视了注意力机制与大内核卷积神经网络在视觉转换器中的关系,并提出了一种新的空间注意力机制,称为大内核卷积注意力(LKCA)。LKCA通过将注意力操作替换为单个大内核卷积来简化注意力机制。实验证实,LKCA在视觉任务中表现出竞争性能。