Generative Dataset Distillation Based on Self-Knowledge Distillation

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

该研究提出了一种新颖的生成数据集蒸馏方法,通过自我知识蒸馏提升预测准确性,并在logits标准化后进行分布匹配,实验结果优于现有方法。

🎯

关键要点

  • 该研究提出了一种新颖的生成数据集蒸馏方法。
  • 通过自我知识蒸馏提高预测对齐的准确性。
  • 在分布匹配之前对logits进行了标准化处理。
  • 实验结果表明,该方法优于现有的最先进方法。
  • 该方法展现了更优的蒸馏性能。
➡️

继续阅读