蒸馏模型中的对比学习

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

DistillCSE框架通过自学习和知识蒸馏实现对比学习,提供额外的监督信号,学习到更强的模型。DistillCSE在标准基准测试上表现优越,超越其他方法。

🎯

关键要点

  • 提出了DistillCSE框架,基于自学习和知识蒸馏实现对比学习。
  • DistillCSE通过基础模型提供额外的监督信号,具有自我增强的特点。
  • 发现标准知识蒸馏存在教师模型logits的相对大方差,导致过拟合问题。
  • 提出两种解决方案:Group-P混洗策略作为隐式正则化和平均多个教师组件的logits。
  • 在标准基准测试中,DistillCSE表现优越,超越许多强基线方法,获得新的最先进表现。
➡️

继续阅读