掩蔽以改进卷积神经网络的对比式自监督学习,并揭示显著性
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文提出了 ContrastMask,通过在受限的可见类别上学习有标注遮罩,同时在新颖的 unseen 类别上分割对象,提高了前景和背景的特征辨别率,促进了课程无关掩模分割模型的学习。在 COCO 数据集上的实验证明了该方法的优越性。
🎯
关键要点
- 提出了ContrastMask,通过在受限的可见类别上学习有标注遮罩,消除繁重注释负担。
- 在新颖的unseen类别上分割对象,部分监督实例分割是一个任务。
- ContrastMask在统一的像素级对比学习框架下,同时在可见和未知类别上学习掩模分割模型。
- 提高了前景和背景的特征辨别率,促进了课程无关掩模分割模型的学习。
- 在COCO数据集上的实验证明了该方法的优越性,胜过了之前的最新技术。
➡️