QFT:量子化的低资源 LLM 全参数调整
原文中文,约400字,阅读约需1分钟。发表于: 。提出了一种名为 QFT 的新型量化全参数调优框架,可以实现内存高效调优而不损害性能。该框架采用高效的 Lion 优化器和整数值量化的模型状态存储方法,并提供了梯度流和参数更新方案。结果表明,QFT 将模型状态内存减少到标准解决方案的 21%,同时达到可比较的性能,例如,调优 LLaMA-7B 模型仅需 30GB 内存,一张 A6000 GPU 即可满足。
该文介绍了一种高效的仅权重量化方法,以减少大型语言模型在实际应用中的内存需求和推断成本。该方法适用于混合专家模型和密集模型,并且无需额外的微调。通过自适应的量化粒度进行解决,展示了该方法的有效性。在大规模开源模型上评估,展示了最小的准确性损失,并在相同数量的 GPU 上实现了高达 3.65 倍的吞吐量。