小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

Kimi开源的线性注意力架构首次超越全注意力模型,推理速度提升6倍,KV缓存减少75%。其核心创新Kimi Delta Attention引入细粒度遗忘门控,确保长上下文中的稳定性。该模型在多个基准测试中表现优异,标志着AI架构进入多元创新时代。

Kimi开源新线性注意力架构,首次超越全注意力模型,推理速度暴涨6倍

量子位
量子位 · 2025-10-31T08:49:31Z
快速构建自定义 OpenCV 算法:可视化节点编辑器直观友好 | 开源日报 No.750

flash-linear-attention 是一个高效的线性注意力模型集合,支持多平台运行,集成多种最新模型,优化内存消耗,便于扩展和部署。PaperVision 提供用户友好的节点编辑器,适合计算机视觉算法实验。UniswapX 是无 Gas 费用的 ERC20 交换协议,提升交易效率。mpt-30B-inference 支持在 CPU 上运行 MPT-30B 模型推理,推荐使用 Docker 和 Python 3.10。

快速构建自定义 OpenCV 算法:可视化节点编辑器直观友好 | 开源日报 No.750

开源服务指南
开源服务指南 · 2025-10-06T07:35:48Z

在线性注意力模型中加入短卷积(Short Conv)是为了增强模型的表达能力,弥补线性化带来的性能下降。通过TTT(在线学习)框架,模型能够有效压缩信息,提高学习效果,避免“自我预测”的局限性。

为什么线性注意力要加Short Conv?

科学空间|Scientific Spaces
科学空间|Scientific Spaces · 2025-10-05T08:25:00Z
RATTENTION:局部-全局注意力模型中的最小滑动窗口大小研究

本研究探讨了局部-全局注意力模型中的窗口大小选择,提出了RATTENTION变体,利用线性注意力机制捕捉窗口外信息。实验结果表明,RATTENTION在512窗口大小下的性能与全注意力模型相当,同时保持了训练效率,适用于短上下文场景。

RATTENTION:局部-全局注意力模型中的最小滑动窗口大小研究

Apple Machine Learning Research
Apple Machine Learning Research · 2025-09-23T00:00:00Z

本研究提出RADLADS协议,快速将softmax注意力变换器转换为线性注意力解码器,解决传统模型效率不足的问题。该方法使用350-700M个token,保持推理质量,实现显著的成本效益,并在标准基准测试中表现优异。

RADLADS:针对大规模线性注意力解码器的快速注意力蒸馏

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-05T00:00:00Z

本研究提出LASP-2序列并行方法,优化线性注意力的右乘特性,显著提升长序列训练的通信和计算并行性,训练速度比LASP快15.2%,比环形注意力快36.6%。

LASP-2: Rethinking Sequence Parallelism of Linear Attention and Its Hybrid Methods

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-11T00:00:00Z
ICLR 2025 | 极性感知线性注意力!哈工深张正团队提出PolaFormer视觉基础模型

AIxiv专栏促进了学术交流,报道了2000多篇研究。本文介绍了PolaFormer,一种新型极性感知线性注意力机制,旨在解决传统自注意力的复杂度问题,从而提升视觉任务的性能与计算效率。

ICLR 2025 | 极性感知线性注意力!哈工深张正团队提出PolaFormer视觉基础模型

机器之心
机器之心 · 2025-02-01T11:44:54Z

本研究提出了一种线性注意力方法L$^2$ViT,旨在解决视觉变换器在高分辨率图像应用中的时间和内存复杂性问题。该架构在保持线性计算复杂度的同时,有效捕捉全局和局部特征,实验结果显示其在图像分类任务中达到84.4%的Top-1准确率。

视觉变换器中的线性注意力复兴

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-27T00:00:00Z
MiniMax震撼开源,突破传统Transformer架构,4560亿参数,支持400万长上下文

2025年,AI Agent将进入劳动力市场,提升生产力。MiniMax推出的新模型MiniMax-Text-01具备400万token的长上下文处理能力,采用线性注意力机制,显著提高效率,并在多项基准测试中表现优异,展现出强大的长文本理解和多模态能力。

MiniMax震撼开源,突破传统Transformer架构,4560亿参数,支持400万长上下文

机器之心
机器之心 · 2025-01-15T05:10:51Z
从线性注意力视角揭秘视觉Mamba,清华、阿里合作提出全新MILA模型

AIxiv专栏促进了学术交流,报道了2000多篇文章。研究者韩东辰提出的Mamba模型具有线性计算复杂度,表现优异。Mamba与线性注意力有内在相似性,关键在于遗忘门和宏观结构设计。新模型MILA结合了两者的优点,在视觉任务中表现更佳。

从线性注意力视角揭秘视觉Mamba,清华、阿里合作提出全新MILA模型

机器之心
机器之心 · 2024-12-10T10:08:26Z

本研究探讨了线性注意力与Softmax注意力之间的性能差距,提出理论分析,指出提升线性注意力的注入性和局部建模能力可以降低计算复杂度,从而超越Softmax注意力。

Bridging the Gap: Rethinking Softmax and Linear Attention

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-09T00:00:00Z
rebuttal真的有用!这篇ICLR论文,所有审稿人都加了2分,直接跃升排名第9

ICLR 2025 论文《SANA》提出了一种高效的高分辨率图像合成方法,支持1024×1024至4096×4096的分辨率。研究团队采用新型自动编码器和线性注意力模块,显著提升了生成速度和质量。经过审稿人反馈,作者详细解释了创新点,最终获得更高评分,体现了积极互动的重要性。

rebuttal真的有用!这篇ICLR论文,所有审稿人都加了2分,直接跃升排名第9

机器之心
机器之心 · 2024-11-28T05:28:24Z

本研究提出了一种创新的秩增强视觉线性变换器(RAVLT),通过改进线性注意力机制,在多个视觉任务中表现优异,尤其在ImageNet-1k上达到了84.4%的准确率。

打破线性注意力的低秩困境

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-12T00:00:00Z

该论文介绍了一种名为Lightning Attention-2的方法,能够实现线性注意力。通过利用平铺技术和GPU硬件,该方法提高了训练和推理速度,比其他注意力机制更快。

闪电关注 - 2:在大型语言模型中处理无限序列长度的免费午餐

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-09T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码