数据混合规律:通过预测语言建模性能来优化数据混合
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文研究了多任务学习的优化动态,提出了在高资源任务上进行预训练,然后在高/低资源任务的混合中进行微调的方法,通过实证研究证明了该方法的持续改进。在神经机器翻译和多语言语言建模中实证了其改进效果。
🎯
关键要点
- 本文研究了多任务学习的优化动态,关注数据不平衡的任务集合。
- 提出了一种在高资源任务上进行预训练的方法。
- 在高/低资源任务的混合中进行微调以实现持续改进。
- 通过实证研究证明该方法优于标准静态加权的性能。
- 分析了该方法适用的数据条件。
- 在神经机器翻译和多语言语言建模中验证了改进效果。
➡️