蒸馏模型中的对比学习
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
DistillCSE框架通过自学习和知识蒸馏实现对比学习,提供额外的监督信号,学习到更强的模型。DistillCSE在标准基准测试上表现优越,超越其他方法。
🎯
关键要点
- 提出了DistillCSE框架,基于自学习和知识蒸馏实现对比学习。
- DistillCSE通过基础模型提供额外的监督信号,具有自我增强的特点。
- 发现标准知识蒸馏存在教师模型logits的相对大方差,导致过拟合问题。
- 提出两种解决方案:Group-P混洗策略作为隐式正则化和平均多个教师组件的logits。
- 在标准基准测试中,DistillCSE表现优越,超越许多强基线方法,获得新的最先进表现。
🏷️
标签
➡️