掩蔽以改进卷积神经网络的对比式自监督学习,并揭示显著性

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文提出了 ContrastMask,通过在受限的可见类别上学习有标注遮罩,同时在新颖的 unseen 类别上分割对象,提高了前景和背景的特征辨别率,促进了课程无关掩模分割模型的学习。在 COCO 数据集上的实验证明了该方法的优越性。

🎯

关键要点

  • 提出了ContrastMask,通过在受限的可见类别上学习有标注遮罩,消除繁重注释负担。
  • 在新颖的unseen类别上分割对象,部分监督实例分割是一个任务。
  • ContrastMask在统一的像素级对比学习框架下,同时在可见和未知类别上学习掩模分割模型。
  • 提高了前景和背景的特征辨别率,促进了课程无关掩模分割模型的学习。
  • 在COCO数据集上的实验证明了该方法的优越性,胜过了之前的最新技术。
➡️

继续阅读