基于狄利克雷生成的排练的持续学习

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

本文提出了一种名为Dirichlet连续学习(DCL)的生成排练策略,用于解决数据驱动任务导向对话系统中的增量学习问题。DCL利用Dirichlet分布建模潜在先验变量,指导伪样本的生成。同时,介绍了一种基于逻辑的知识蒸馏方法,称为Jensen-Shannon知识蒸馏(JSKD),在伪样本生成期间增强了知识传递。实验证实了该方法在意图检测和槽填充任务上的有效性,并胜过了最先进的方法。

🎯

关键要点

  • 本文提出了一种名为Dirichlet连续学习(DCL)的生成排练策略。
  • DCL用于解决数据驱动任务导向对话系统中的增量学习问题。
  • DCL利用Dirichlet分布建模潜在先验变量,指导伪样本的生成。
  • 介绍了一种基于逻辑的知识蒸馏方法,称为Jensen-Shannon知识蒸馏(JSKD)。
  • JSKD在伪样本生成期间增强了知识传递。
  • 实验证实了DCL在意图检测和槽填充任务上的有效性。
  • DCL的方法胜过了最先进的方法。
➡️

继续阅读