非负对比学习
原文中文,约200字,阅读约需1分钟。发表于: 。通过非负对比学习(NCL),我们提出非负矩阵分解(NMF)的新应用,旨在提取可解释的特征,在数学上与 NMF 目标保持一致,不仅在特征区分度、特征选择方面表现出众,而且在下游分类任务中表现优异。
该论文介绍了原型对比学习(PCL)这一无监督表示学习方法,通过增加原型作为潜在变量来寻找最大似然估计,提出了一种基于对比学习的通用损失函数ProtoNCE loss。该方法在多个基准测试中表现优于当前最先进的基于实例对比学习方法,对低资源转移学习有显著改进。