为每个任务提供所需的条件 —— 利用结构稀疏性进行个性化多任务学习
原文中文,约400字,阅读约需1分钟。发表于: 。通过引入层优化的多任务(LOMT)模型,利用结构化稀疏性来优化任务选择性特征,并提高多任务学习(MTL)框架的性能,将任务特定的解码器连接到经过策略性识别的层,实现网络的定制化架构,减少冗余,优化网络。
多任务学习(MTL)是一种灵活有效的学习方法,结合了任务特定和共享信息,解决多个相关任务。本综述从传统方法到深度学习和预训练模型的最新趋势,对MTL的发展进行了全面概述,并将其分类为正则化、关系学习、特征传播、优化和预训练五个关键领域。综述还探讨了MTL从处理固定任务到接受无任务或模态限制的灵活方法,以及任务提示、不可知训练和ZSL的概念。综述旨在提供对MTL从1997年到2023年的最新进展的全面概述,同时探讨当前挑战和未来可能性,为MTL研究指明方向。