LRQ:通过学习低秩权重缩放矩阵优化大型语言模型的后训练量化
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
该研究探讨了大型语言模型的后训练量化,特别是4位权重和8位激活量化,以提高计算效率。通过创新技术和混合数据格式,解决了量化中的问题,并证明了这些技术显著提高了任务准确度。该方法相对于8位整数MAC单元可以提升2倍硬件效率。
🎯
关键要点
- 该研究探讨了大型语言模型的后训练量化,特别是4位权重和8位激活量化。
- 引入了激活量化感知的缩放(AQAS)和序列长度感知的校准(SLAC)等创新技术。
- 采用混合数据格式(dINT)解决W4A8量化中的下溢问题。
- 通过严格评估证明这些技术显著提高了任务准确度,与完整精度模型相当。
- 该方法相对于8位整数MAC单元可以提升2倍硬件效率。
➡️