本研究提出了一种新方法,通过计算参数重要性,显著减轻大语言模型在特定任务调优时的灾难性遗忘问题,提高模型适应性,速度提升约20倍,存储需求仅为10%-15%。
本研究探讨了大型语言模型中参数的重要性不均,发现少数关键权重对模型质量有显著影响。提出了一种无数据的方法来识别这些关键权重,保护它们可以提升量化效果,为后续研究提供参考。
本文提出了一种针对PETL模型的剪枝方法SLS,通过特征级分析评估参数重要性,有效解决冗余参数问题。SLS在VTAB-1k基准测试中优于传统剪枝方法,提升了模型的存储效率和准确性,并动态识别冗余参数,确保剪枝过程不增加存储开销。
完成下面两步后,将自动完成登录并继续当前操作。