A2Q: 累加器感知量化与溢出保护

💡 原文中文,约600字,阅读约需2分钟。
📝

内容提要

本文介绍了一种新颖的权重量化方法,用于训练量化神经网络(QNNs)以避免低精度累加器溢出问题。该方法通过受权重归一化启发的公式,限制模型权重的L1范数,促进非结构化权重稀疏性以避免溢出。实验结果表明,该方法可以训练适用于低精度累加器的QNNs,并在FPGA上部署模型时提高资源效率。

🎯

关键要点

  • 提出了一种新颖的权重量化方法,称为accumulator-aware quantization(A2Q),用于训练量化神经网络(QNNs)。
  • A2Q通过受权重归一化启发的公式,限制模型权重的L1范数,以避免低精度累加器的溢出问题。
  • 该方法促进了非结构化权重稀疏性,确保在训练低精度累加器的QNNs时避免溢出。
  • A2Q在计算机视觉任务中表现出色,能够保持与浮点基准相竞争的模型准确性。
  • 主要针对在FPGA上部署模型,利用定制累加器比特宽度提高资源效率。
  • 实验结果显示,A2Q相比于32位累加器,平均提供高达2.3倍的资源利用率降低,同时保持99.2%的浮点模型准确性。
➡️

继续阅读