DatUS^2:使用预训练的自监督视觉 Transformer 进行数据驱动的无监督语义分割

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

研究者提出了一种名为U2Seg的无监督通用分割模型,通过自监督模型生成伪语义标签并进行自我训练,性能显著提升。U2Seg在少样本情况下也是强大的预训练模型,激发了更多无监督通用图像分割的研究。

🎯

关键要点

  • 提出了一种名为U2Seg的无监督通用分割模型。
  • U2Seg能够在统一框架下执行实例分割、语义分割和全景分割任务。
  • 该方法利用自监督模型生成伪语义标签并进行自我训练,显著提升性能。
  • U2Seg为无监督全景分割建立了新的基准。
  • 在少样本情况下,U2Seg仍然是强大的预训练模型,APmask提升了5.0个点。
  • 希望该方法能够激发更多关于无监督通用图像分割的研究。
➡️

继续阅读