小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究提出KV-Distill框架,旨在压缩标准Transformer中自注意力机制的KV缓存,显著减少上下文长度达99%,同时保持预训练模型的性能。实验结果表明,KV-Distill在提取任务中优于其他压缩技术。

KV-Distill: Nearly Lossless Learnable Context Compression Method for Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-13T00:00:00Z

本研究提出了一种开放词汇的空间-语义扩散策略(S$^2$-扩散),旨在解决机器人技能学习的实例局限性。实验结果表明,该方法在类别无关因素变化时仍能保持良好性能,并有效地将技能转移至同类实例。

S$^2$-扩散:将实例级技能推广到类别级技能在机器人操作中的应用

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-13T00:00:00Z

本研究提出了一种新技术DeltaLLM,通过在Transformer层之间共享权重和添加低秩差异矩阵,减少约12%的参数,同时保持90%的性能,有效解决大型语言模型的内存占用问题。

DeltaLLM: Low-Rank Incremental Compression of Large Language Models through Weight Sharing

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-30T00:00:00Z
面向低比特通信的张量并行大语言模型推理

本文介绍了一种量化方法,旨在提升大语言模型(LLM)在服务器上的推理效率。该方法将通信特征值从16位降低至4.2位,同时几乎保持原有性能,Gemma 2 27B和Llama 2 13B的性能分别为98.0%和99.5%。

面向低比特通信的张量并行大语言模型推理

Apple Machine Learning Research
Apple Machine Learning Research · 2024-11-19T00:00:00Z

本研究提出了一种激活方差稀疏性评分(AVSS)方法,用于评估深度学习模型各层的重要性。去除约25%的低重要性层后,模型仍能保持90%以上的性能,为大型语言模型的优化提供了新思路。

AVSS: Evaluating Layer Importance in Large Language Models through Activation Variance Sparsity Analysis

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-04T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码