基于狄利克雷生成的排练的持续学习

BriefGPT - AI 论文速递 BriefGPT - AI 论文速递 ·

本文提出了一种名为Dirichlet连续学习(DCL)的生成排练策略,用于解决数据驱动任务导向对话系统中的增量学习问题。DCL利用Dirichlet分布建模潜在先验变量,指导伪样本的生成。同时,介绍了一种基于逻辑的知识蒸馏方法,称为Jensen-Shannon知识蒸馏(JSKD),在伪样本生成期间增强了知识传递。实验证实了该方法在意图检测和槽填充任务上的有效性,并胜过了最先进的方法。

原文中文,约400字,阅读约需1分钟。
阅读原文