小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究提出了TeleSparse,一种后处理机制,通过稀疏化神经网络和优化激活范围,降低深度学习推理验证的时间和内存使用,提高可行性。

TeleSparse:实用的隐私保护深度神经网络验证

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-27T00:00:00Z

本研究探讨了图神经网络(GNNs)和图变压器(GTs)中位置编码(PEs)的孤立性问题,建立了统一框架来评估PEs的应用,并引入了稀疏化GRIT注意机制,发现新GNN架构与PEs的结合能够超越现有方法。

图神经网络和图变压器的位置信息编码基准测试

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-19T00:00:00Z

在BERT模型剪枝中,提出了一些通用指南,包括与目标稀疏度相关的训练、稀疏化和学习率调整方法,以及知识蒸馏的参数化。这些方法在BERT剪枝和SMC基准上取得了优异成果,表明经典剪枝方法通过正确应用也能获得竞争性结果。

LLM-Rank:一种图论方法用于剪枝大型语言模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-17T00:00:00Z

尽管大型语言模型存在计算和内存问题,研究表明无需训练和数据的压缩方法取得成功。LLM-KICK评估协议分析了稀疏化和量化对语言任务的影响,推动更好的压缩方法发展。

基于预训练变换器的压缩:字节级多模态数据研究

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-07T00:00:00Z

最近的研究展示了一种名为LLM-KICK的无需训练和无需数据的压缩方法,可成功压缩大型语言模型。该研究探讨了该方法的优缺点,并研究了稀疏化和量化对语言理解、推理、生成、检索和摘要等任务的影响。希望该研究能推动语言模型压缩方法的发展。

通过指令感知的上下文压缩增强和加速大型语言模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-28T00:00:00Z

最近的研究展示了一种名为LLM-KICK的无需训练和无需数据的压缩方法,可成功压缩大型语言模型。该研究探讨了该方法的优缺点,并研究了稀疏化和量化对语言理解、推理、生成、检索和摘要等任务的影响。希望该研究能推动语言模型压缩方法的发展。

ExCP:通过权重和动量联合缩小实现极限 LLM 检查点压缩

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-17T00:00:00Z

最近的研究展示了一种名为LLM-KICK的无需训练和无需数据的压缩方法,可成功压缩大型语言模型。该研究探讨了该方法的优缺点,并研究了稀疏化和量化对语言理解、推理、生成、检索和摘要等任务的影响。希望该研究能推动语言模型压缩方法的发展。

在神经压缩文本上训练 LLMs

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-04-04T00:00:00Z

最近的研究展示了一种名为LLM-KICK的无需训练和无需数据的压缩方法,可成功压缩大型语言模型。该研究探讨了该方法的优点和缺点,并研究了稀疏化和量化对语言理解、推理、生成、检索和摘要等任务的影响。希望该研究能推动语言模型压缩方法的发展。

大型语言模型的零数据压缩和降噪

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-26T00:00:00Z

最近的研究展示了一种名为LLM-KICK的无需训练和无需数据的压缩方法,可以成功压缩大型语言模型。该研究探讨了稀疏化和量化对语言理解、推理、生成、检索和摘要等任务的影响,并介绍了该方法的优点和缺点。希望这项研究能够推动语言模型压缩方法的发展。

紧凑 AI:使用量子启发的张量网络对大型语言模型进行极致压缩

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-25T00:00:00Z

最近的研究展示了一种无需训练和无需数据的压缩方法在压缩大型语言模型方面取得了成功。研究介绍了一种名为LLM-KICK的压缩语言模型评估协议,并展示了稀疏化和量化对于语言任务的影响。希望这项研究能促进更好的语言模型压缩方法的发展。

大型语言模型的极端压缩:基于加性量化

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-11T00:00:00Z

最近的研究展示了基于裁剪和量化的压缩方法在压缩大型语言模型方面取得了成功。LLM-KICK压缩语言模型评估协议揭示了当前压缩方法的优缺点,并展示了稀疏化和量化对语言任务的影响。希望这促进更好的语言模型压缩方法的发展。

重新思考压缩:大型语言模型中潜在特征的简化建模

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-12-12T00:00:00Z

KDT NEUROKIT2E项目旨在为边缘设备提供新的开源框架,包括量化、剪枝感知训练和稀疏化等创新技术,以处理复杂的机器学习任务。

多智能体分布式学习中的不确定性估计

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-11-22T00:00:00Z

SmartExchange是一种用于深度神经网络的算法-硬件协同设计框架,通过稀疏化、分解和量化三种主流模型压缩思想,得到稀疏、易于量化的DNN,具有极低的能耗和存储空间需求。同时,该研究还设计了一个专用加速器,可改进深度神经网络的能效和延迟表现。

合作:记忆不是一种商品

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-11-01T00:00:00Z

本文介绍了一种新的稀疏化格式 V:N:M,可在 NVIDIA 的 Sparse Tensor Cores 上执行任意 N:M 比例的稀疏化计算,并通过高性能稀疏库 Spatha 实现了高达 37 倍的加速。该技术可在现代 transformers 中实现高稀疏度而几乎不降低准确性的二阶裁剪技术。

VENOM:一种向量化的 N:M 格式,释放稀疏张量核心的能量

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-03T00:00:00Z

研究表明,基于裁剪和量化的无需训练和无需数据的压缩方法在压缩大型语言模型方面取得了成功。LLM-KICK评估协议揭示了当前最先进的压缩方法的优缺点,并展示了稀疏化和量化对于语言任务的影响。希望这项研究能够促进更好的语言模型压缩方法的发展。

压缩 LLMs:真实很少纯粹而简单

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-02T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码