自然语言处理中使用基于 Transformer 的多任务学习的挑战与机遇:一项调研
原文中文,约300字,阅读约需1分钟。发表于: 。机器学习模型处理自然语言处理(NLP)中的多任务学习(MTL)及持续学习(CL)的挑战、机会和应用,以及对基于 Transformer 的 MTL 架构的系统分析。
研究人员通过使用新的Transformer架构和任务条件模块实现了更有效的参数共享,并通过保持预训练模型的一半权重来缓解遗忘。他们还采用了新的多任务数据采样策略来减少任务之间数据不平衡的负面影响。在GLUE上,他们的八任务模型超过了其他Adapter方法2.8%,而他们的24任务模型在使用MTL和单任务微调的模型上表现优异。他们还展示了他们的单个多任务模型方法在26个NLP任务中竞争,并在一些测试和开发集上取得了最先进的结果。