优化大型语言模型的压缩方法
原文中文,约300字,阅读约需1分钟。发表于: 。基于层序之差异,我们提出了 LLM-Streamline 方法,该方法通过对模型中不重要的层进行剪枝和轻量级模型的替代训练,以减轻剪枝所引起的性能下降,并在综合实验中展示了其优于现有模型剪枝方法的效果。
提出了一种名为Layer Collapse (LaCo)的逐层修剪方法,可快速减小模型大小并保留模型结构。实验证明,在修剪比例为25-30%时,该方法保持了超过80%的平均任务性能,优于现有的结构修剪方法。还进行了后训练实验,验证了该方法有效继承了原始模型的参数,并评估了大型语言模型在不同修剪比例下的性能。