考虑累加器的后训练量化
💡
原文中文,约500字,阅读约需2分钟。
📝
内容提要
我们提出了一种新的权重量化方法A2Q,用于训练量化神经网络,避免低精度累加器溢出。A2Q通过约束权重的L1范数,促进稀疏性,确保溢出避免。在计算机视觉任务中,A2Q在保持准确性的同时,提高FPGA资源效率,资源利用率降低2.3倍,准确性保持在99.2%。
🎯
关键要点
-
提出了一种新的权重量化方法A2Q,用于训练量化神经网络(QNNs)。
-
A2Q旨在避免低精度累加器在推断过程中的溢出问题。
-
该方法通过约束模型权重的L1范数,促进非结构化权重稀疏性。
-
A2Q在计算机视觉任务中保持与浮点基准相竞争的模型准确性。
-
主要针对在FPGAs上部署模型,以充分利用定制累加器比特宽度。
-
实验表明,A2Q相比于32位累加器提供高达2.3倍的资源利用率降低,准确性保持在99.2%。
➡️