Representation Learning via Non-Contrastive Mutual Information
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出了一种新的自监督目标——互信息非对比损失(MINC),旨在解决自监督表征学习中的高方差和大批量需求问题。实验结果表明,MINC在图像表征学习中优于传统对比损失,具有更强的泛化能力和转移性。
🎯
关键要点
- 本研究提出了一种新的自监督目标——互信息非对比损失(MINC)。
- MINC旨在解决自监督表征学习中的高方差和大批量需求问题。
- 实验结果表明,MINC在图像表征学习中优于传统对比损失。
- MINC展示了更强的泛化能力和转移性。
➡️