小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究提出了一种新算法,解决RoPE机制在注意力计算中的复杂性,结合多项式方法与快速傅里叶变换,实现子平方时间性能,提升Transformer架构效率。

几乎线性时间内快速计算RoPE注意力的梯度

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-23T00:00:00Z

本研究提出了HashAttention方法,解决了长上下文中注意力计算效率低的问题。该方法通过推荐关键token,提升了辨识效率,实现了$32 imes$的稀疏性,显著加快了模型推理速度,具有重要应用潜力。

HashAttention:用于更快推理的语义稀疏性

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-19T00:00:00Z

本研究提出MagicPIG系统,利用局部敏感哈希(LSH)解决大语言模型KV缓存的瓶颈问题。MagicPIG在多种任务中显著减少注意力计算量,同时保持高准确率,解码速度提升1.9到3.9倍。

MagicPIG:高效大语言模型生成的LSH采样

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-21T00:00:00Z

该文章介绍了一种名为LA-ViT的新型视觉Transformer架构,通过引入少注意力层和注意力残差模块来减少注意力计算的复杂性和饱和问题。实验证明,LA-ViT在各种视觉任务中表现出色,并具有较低的计算复杂度。

LaViT:这也行,微软提出直接用上一层的注意力权重生成当前层的注意力权重 | CVPR 2024 - 晓飞的算法工程笔记

晓飞的算法工程笔记
晓飞的算法工程笔记 · 2024-09-02T04:21:00Z

本文讨论了在大语言模型推理中优化KV缓存的方法,以降低注意力计算的成本。通过缓存键和值张量,KV缓存减少了重新计算过去标记的需求,使注意力计算能够随着总序列长度线性扩展。文章介绍了KV缓存的实现和优化策略,并讨论了内存消耗和挑战。最后,提出了减少KV缓存大小的方法,例如减少注意力头的数量和对KV缓存进行量化。

LLM推理入门指南②:深入解析KV缓存

OneFlow深度学习框架
OneFlow深度学习框架 · 2024-03-28T00:03:52Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码