自主训练的掩蔽关注引导的掩蔽图像建模与噪音约束教师 (SMART) 用于医学图像分析

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

本文介绍了视觉Transformer和掩蔽的图像建模(MIM)的新趋势,提出了一种新的掩蔽策略,称为注意力引导掩蔽(AttMask),证明了它在密集的基于蒸馏的MIM以及分类记号的普通基于蒸馏的自监督学习上比随机掩蔽效果更好。

🎯

关键要点

  • 本文介绍了视觉Transformer和掩蔽的图像建模(MIM)的新趋势。
  • 图像记号掩蔽与文本中的掩蔽不同,因其记号数量和相关性不同。
  • 提出了一种从随机掩蔽到知情掩蔽的转变,以生成具有挑战性的预文本任务。
  • 在基于蒸馏的MIM中,教师Transformer编码器生成关注图以指导学生的掩蔽。
  • 引入了一种新的掩蔽策略,称为注意力引导掩蔽(AttMask)。
  • AttMask在密集的基于蒸馏的MIM和分类记号的自监督学习上效果优于随机掩蔽。
  • AttMask加速了学习过程并提高了各种下游任务的性能。
  • 实现代码可在指定的URL中找到。
➡️

继续阅读