在 CPU 上高效 LLM 推断
原文中文,约400字,阅读约需1分钟。发表于: 。本论文提出了一种有效的方法,可以更高效地部署大型语言模型,通过自动 INT4 纯权重量化流和设计具有高度优化内核的特殊 LLM 运行时,在 CPU 上加速 LLM 推理,展示了该方法对包括 Llama2、Llama、GPT-NeoX 等流行 LLM 的普适性,并显示了在 CPU 上的极高推理效率。
该文介绍了一种高效的仅权重量化方法,以减少大型语言模型在实际应用中的内存需求和推断成本。该方法适用于混合专家模型和密集模型,并且无需额外的微调。通过自适应的量化粒度进行解决,展示了该方法的有效性。在评估中,该方法展示了最小的准确性损失,并在相同数量的 GPU 上实现了高达 3.65 倍的吞吐量。