考虑累加器的后训练量化

💡 原文中文,约500字,阅读约需2分钟。
📝

内容提要

我们提出了一种新的权重量化方法A2Q,用于训练量化神经网络,避免低精度累加器溢出。A2Q通过约束权重的L1范数,促进稀疏性,确保溢出避免。在计算机视觉任务中,A2Q在保持准确性的同时,提高FPGA资源效率,资源利用率降低2.3倍,准确性保持在99.2%。

🎯

关键要点

  • 提出了一种新的权重量化方法A2Q,用于训练量化神经网络(QNNs)。

  • A2Q旨在避免低精度累加器在推断过程中的溢出问题。

  • 该方法通过约束模型权重的L1范数,促进非结构化权重稀疏性。

  • A2Q在计算机视觉任务中保持与浮点基准相竞争的模型准确性。

  • 主要针对在FPGAs上部署模型,以充分利用定制累加器比特宽度。

  • 实验表明,A2Q相比于32位累加器提供高达2.3倍的资源利用率降低,准确性保持在99.2%。

➡️

继续阅读