自主训练的掩蔽关注引导的掩蔽图像建模与噪音约束教师 (SMART) 用于医学图像分析
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本文介绍了视觉Transformer和掩蔽的图像建模(MIM)的新趋势,提出了一种新的掩蔽策略,称为注意力引导掩蔽(AttMask),证明了它在密集的基于蒸馏的MIM以及分类记号的普通基于蒸馏的自监督学习上比随机掩蔽效果更好。
🎯
关键要点
- 本文介绍了视觉Transformer和掩蔽的图像建模(MIM)的新趋势。
- 图像记号掩蔽与文本中的掩蔽不同,因其记号数量和相关性不同。
- 提出了一种从随机掩蔽到知情掩蔽的转变,以生成具有挑战性的预文本任务。
- 在基于蒸馏的MIM中,教师Transformer编码器生成关注图以指导学生的掩蔽。
- 引入了一种新的掩蔽策略,称为注意力引导掩蔽(AttMask)。
- AttMask在密集的基于蒸馏的MIM和分类记号的自监督学习上效果优于随机掩蔽。
- AttMask加速了学习过程并提高了各种下游任务的性能。
- 实现代码可在指定的URL中找到。
➡️