BriefGPT - AI 论文速递

BriefGPT - AI 论文速递 -

IncreLoRA:增量参数分配方法用于参数高效微调

提出了一种增量参数分配方法 IncreLoRA,通过根据每个模块的重要性得分,在训练期间自适应地添加可训练参数,以应对有限训练条件下参数剪枝的限制,实现更高的参数效率,并在低资源设置下显著优于基准方法。

LoRAPrune是一个用于高性能大规模预训练模型的高效微调和部署的框架。它使用PEFT感知的剪枝标准和基于LoRA的梯度值和梯度重要性估计,通过迭代剪枝过程删除冗余参数,实现高精度和高压缩比。实验结果表明,该方法在各个任务中达到了最先进的结果,并在VTAB-1k基准测试中,使用可训练参数的仅0.76%,比幅度和移动剪枝方法高5.7%和4.3%,同时保留微调优点,实现与PEFT方法可比较的性能。

LoRAPrune 剪枝 大规模预训练模型 高压缩比 高性能

相关推荐 去reddit讨论

热榜 Top10

eolink
eolink
观测云
观测云
Dify.AI
Dify.AI
LigaAI
LigaAI

推荐或自荐