基于信息论的多任务表示学习框架用于自然语言理解

📝

内容提要

本研究解决了多任务表示学习中的噪声不变性不足的问题,提出了一种新的框架(InfoMTL),以确保共享表示对于所有任务的充分性,并减少冗余特征的负面影响。通过共享信息最大化和任务特定信息最小化的原则,实验结果表明,该方法在多任务设置下,特别是在数据有限和噪声场景中,相较于12种对比方法具有显著优势。

🏷️

标签

➡️

继续阅读