在多任务口语语言理解模型中寻找任务特定的子网络
原文中文,约200字,阅读约需1分钟。发表于: 。通过神经网络剪枝,在多任务语言理解模型中找到特定任务的子网络,实现模型压缩和在新数据上适应能力的提升。
我们构建了一个名为UniverSLU的多任务学习模型,展现了竞争性的性能,并超过了特定任务模型。我们还测试了该模型对新的释意表达的泛化能力。
通过神经网络剪枝,在多任务语言理解模型中找到特定任务的子网络,实现模型压缩和在新数据上适应能力的提升。
我们构建了一个名为UniverSLU的多任务学习模型,展现了竞争性的性能,并超过了特定任务模型。我们还测试了该模型对新的释意表达的泛化能力。