QKFormer: 使用 Q-K Attention 的层次化脉冲变压器
💡
原文中文,约600字,阅读约需2分钟。
📝
内容提要
Spikformer结合了自注意力机制和脉冲神经网络(SNNs),将Transformer架构应用于SNN设计。它引入了脉冲自注意力(SSA)模块,在各种数据集上实现了最先进的性能。通过使用非参数线性变换,Spikformer可以加速,降低时间复杂度。大量实验表明,与SSA相比,线性变换具有更高的准确性和更快的训练/推理速度。
🎯
关键要点
- Spikformer结合了自注意力机制和脉冲神经网络(SNNs),应用于SNN设计。
- 引入脉冲自注意力(SSA)模块,使用脉冲形式的查询、键和值来混合稀疏视觉特征。
- 在多个数据集上,Spikformer展示了最先进的性能。
- 通过将SSA替换为非参数化的线性变换(LT),如傅里叶和小波变换,Spikformer可以加速。
- 线性变换将二次时间复杂度降低为对数线性时间复杂度,提升了性能和效率。
- 广泛实验表明,具有LT的Spikformer在神经形态学数据集上实现了更高的Top-1准确率。
- 在静态数据集上,具有LT的Spikformer实现了可比较的Top-1准确率。
- 与需要可学习参数的SSA相比,具有LT的Spikformer实现了29%至51%的训练速度提升和61%至70%的推断速度提升。
- 具有LT的Spikformer还减少了4%至26%的内存使用量。
🏷️
标签
➡️