在 GPU 上实现快速 2 位硬件离线量化低内存映射:内存对齐、稀疏离群值和异步解量化
原文中文,约400字,阅读约需1分钟。发表于: 。通过以较小的计算代价解决对大型语言模型(LLMs)进行量化和去量化操作时所面临的问题,我们提出了一种新的技术,并在不同模型和尺寸上进行了广泛实验,成功实现了每个权重的 2.85 位表示,模型的端到端加速比为 1.74 倍,同时降低了运行成本和硬件需求。
本文介绍了一种高效的仅权重量化方法,用于解决大型语言模型的内存需求和推断成本问题。该方法通过减少内存消耗和加速推断来实现,无需额外的微调。通过分析量化大型语言模型的挑战和问题,并采用自适应的量化粒度进行解决,展示了该方法的有效性。此外,作者还实现了高效的 GPU 矩阵乘法和解量化算法,支持不同类型的激活和权重。在评估中,该方法展示了最小的准确性损失,并在相同数量的 GPU 上实现了高吞吐量。