数据混合规律:通过预测语言建模性能来优化数据混合

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文研究了多任务学习的优化动态,提出了在高资源任务上进行预训练,然后在高/低资源任务的混合中进行微调的方法,通过实证研究证明了该方法的持续改进。在神经机器翻译和多语言语言建模中实证了其改进效果。

🎯

关键要点

  • 本文研究了多任务学习的优化动态,关注数据不平衡的任务集合。
  • 提出了一种在高资源任务上进行预训练的方法。
  • 在高/低资源任务的混合中进行微调以实现持续改进。
  • 通过实证研究证明该方法优于标准静态加权的性能。
  • 分析了该方法适用的数据条件。
  • 在神经机器翻译和多语言语言建模中验证了改进效果。
➡️

继续阅读