Kimi开源的线性注意力架构首次超越全注意力模型,推理速度提升6倍,KV缓存减少75%。其核心创新Kimi Delta Attention引入细粒度遗忘门控,确保长上下文中的稳定性。该模型在多个基准测试中表现优异,标志着AI架构进入多元创新时代。
flash-linear-attention 是一个高效的线性注意力模型集合,支持多平台运行,集成多种最新模型,优化内存消耗,便于扩展和部署。PaperVision 提供用户友好的节点编辑器,适合计算机视觉算法实验。UniswapX 是无 Gas 费用的 ERC20 交换协议,提升交易效率。mpt-30B-inference 支持在 CPU 上运行 MPT-30B 模型推理,推荐使用 Docker 和 Python 3.10。
在线性注意力模型中加入短卷积(Short Conv)是为了增强模型的表达能力,弥补线性化带来的性能下降。通过TTT(在线学习)框架,模型能够有效压缩信息,提高学习效果,避免“自我预测”的局限性。
本研究探讨了局部-全局注意力模型中的窗口大小选择,提出了RATTENTION变体,利用线性注意力机制捕捉窗口外信息。实验结果表明,RATTENTION在512窗口大小下的性能与全注意力模型相当,同时保持了训练效率,适用于短上下文场景。
本研究提出RADLADS协议,快速将softmax注意力变换器转换为线性注意力解码器,解决传统模型效率不足的问题。该方法使用350-700M个token,保持推理质量,实现显著的成本效益,并在标准基准测试中表现优异。
本研究提出LASP-2序列并行方法,优化线性注意力的右乘特性,显著提升长序列训练的通信和计算并行性,训练速度比LASP快15.2%,比环形注意力快36.6%。
AIxiv专栏促进了学术交流,报道了2000多篇研究。本文介绍了PolaFormer,一种新型极性感知线性注意力机制,旨在解决传统自注意力的复杂度问题,从而提升视觉任务的性能与计算效率。
本研究提出了一种线性注意力方法L$^2$ViT,旨在解决视觉变换器在高分辨率图像应用中的时间和内存复杂性问题。该架构在保持线性计算复杂度的同时,有效捕捉全局和局部特征,实验结果显示其在图像分类任务中达到84.4%的Top-1准确率。
2025年,AI Agent将进入劳动力市场,提升生产力。MiniMax推出的新模型MiniMax-Text-01具备400万token的长上下文处理能力,采用线性注意力机制,显著提高效率,并在多项基准测试中表现优异,展现出强大的长文本理解和多模态能力。
AIxiv专栏促进了学术交流,报道了2000多篇文章。研究者韩东辰提出的Mamba模型具有线性计算复杂度,表现优异。Mamba与线性注意力有内在相似性,关键在于遗忘门和宏观结构设计。新模型MILA结合了两者的优点,在视觉任务中表现更佳。
本研究探讨了线性注意力与Softmax注意力之间的性能差距,提出理论分析,指出提升线性注意力的注入性和局部建模能力可以降低计算复杂度,从而超越Softmax注意力。
ICLR 2025 论文《SANA》提出了一种高效的高分辨率图像合成方法,支持1024×1024至4096×4096的分辨率。研究团队采用新型自动编码器和线性注意力模块,显著提升了生成速度和质量。经过审稿人反馈,作者详细解释了创新点,最终获得更高评分,体现了积极互动的重要性。
本研究提出了一种创新的秩增强视觉线性变换器(RAVLT),通过改进线性注意力机制,在多个视觉任务中表现优异,尤其在ImageNet-1k上达到了84.4%的准确率。
该论文介绍了一种名为Lightning Attention-2的方法,能够实现线性注意力。通过利用平铺技术和GPU硬件,该方法提高了训练和推理速度,比其他注意力机制更快。
完成下面两步后,将自动完成登录并继续当前操作。