小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

我们提出了一种新的权重量化方法A2Q,用于训练量化神经网络,避免低精度累加器溢出。A2Q通过约束权重的L1范数,促进稀疏性,确保溢出避免。在计算机视觉任务中,A2Q在保持准确性的同时,提高FPGA资源效率,资源利用率降低2.3倍,准确性保持在99.2%。

考虑累加器的后训练量化

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-25T00:00:00Z

最新研究提出了一种称为A2Q的量化感知训练方法,通过约束模型权重以安全地使用目标累加器位宽。引入改进的上界和新的权重初始化策略形成A2Q+,实验证实A2Q+改善了累加器位宽和模型准确性之间的权衡。

深度网络中使用较低位宽累加器实现更廉价的推理

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-25T00:00:00Z

通过限制权重和激活函数的精度,量化技术通常降低神经网络推理成本。最近的研究表明,降低累加器的精度可以进一步提高硬件效率,但存在数值溢出的风险,这会导致算术错误并降低模型的准确性。为了避免数值溢出并保持准确性,最新的工作提出了一种称为累加器感知量化(A2Q)的量化感知训练方法,在训练期间约束模型权重以在推理过程中安全地使用目标累加器位宽。尽管这显示出了潜力,但我们证明 A2Q...

A2Q+: 提高累加器感知的权重量化

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-19T00:00:00Z

本文介绍了一种新颖的权重量化方法,用于训练量化神经网络(QNNs)以避免低精度累加器溢出问题。该方法通过受权重归一化启发的公式,限制模型权重的L1范数,促进非结构化权重稀疏性以避免溢出。实验结果表明,该方法可以训练适用于低精度累加器的QNNs,并在FPGA上部署模型时提高资源效率。

A2Q: 累加器感知量化与溢出保护

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-08-25T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码