MaZO:针对大型语言模型多任务微调的掩码零阶优化

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究提出了MaZO框架,旨在解决大型语言模型在多任务微调中的高内存需求。通过权重重要性度量和任务权重更新掩码,MaZO有效降低了参数空间维度,减轻了任务冲突,性能超过了一阶优化方法。

🎯

关键要点

  • 本研究提出了MaZO框架,旨在解决大型语言模型在多任务微调中的高内存需求。
  • MaZO是首个针对零阶优化的多任务微调框架。
  • 通过引入权重重要性度量和多任务权重更新掩码,MaZO选择性更新关键参数。
  • MaZO有效降低了参数空间的维度,减轻了任务冲突。
  • 实验结果表明,MaZO在性能上超越了基于一阶优化的多任务学习方法。
➡️

继续阅读