FAMES: A Fast Approximate Multiplier Replacement for Mixed-Precision Quantized Deep Neural Networks - Reduced to 2 Bits!
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出FAMES系统,有效解决了在仅2位量化的深度神经网络中应用近似乘法器的问题。实验结果显示,该方法在保持1%以下的准确性损失的同时,能量消耗减少28.67%,速度比传统方法快300倍。
🎯
关键要点
- 本研究提出FAMES系统,解决了在仅2位量化的深度神经网络中应用近似乘法器的问题。
- 该方法在保持1%以下的准确性损失的情况下,实现了平均28.67%的能量消耗减少。
- FAMES系统的速度比传统方法快300倍。
➡️