Fira:在低秩约束下能否实现大规模语言模型的全秩训练?
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出了一种新的训练框架Fira,通过范数缩放方法解决低秩训练的问题,实现全秩训练,提高大规模语言模型性能。实验表明,Fira在预训练和微调中优于LoRA和GaLore,性能与全秩训练相当或更好。
🎯
关键要点
- 本研究提出了一种新的训练框架Fira。
- Fira通过范数缩放方法解决低秩训练的问题。
- Fira实现全秩训练,提高大规模语言模型性能。
- 实验表明,Fira在预训练和微调中优于LoRA和GaLore。
- Fira的性能与全秩训练相当或更好。
➡️