SLAB:华为开源,通过线性注意力和PRepBN提升Transformer效率 | ICML 2024 - 晓飞的算法工程笔记
原文中文,约5900字,阅读约需14分钟。发表于: 。论文提出了包括渐进重参数化批归一化和简化线性注意力在内的新策略,以获取高效的Transformer架构。在训练过程中逐步将LayerNorm替换为重参数化批归一化,以实现无损准确率,同时在推理阶段利用BatchNorm的高效优势。此外,论文设计了一种简化的线性注意力机制,其在计算成本较低的情况下达到
本论文提出了一种高效的Transformer架构,通过渐进重参数化批归一化和简化线性注意力的方法,在推理阶段提高效率。该方法在多个基准测试中展示了强大的性能,特别适用于图像分类和物体检测任务。