自监督视觉 Transformer 是可扩展的领域泛化生成模型
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
我们提出了一种基于Transformer的多例学习方法,使用区域视觉Transformer自注意机制替代传统的学习注意机制。该方法在两个组织病理学数据集上显著提高了性能,并指出了进一步研究的有希望的方向。
🎯
关键要点
-
提出了一种基于Transformer的多例学习方法。
-
使用区域视觉Transformer自注意机制替代传统学习注意机制。
-
通过融合区域块信息来预测整张幻灯片。
-
展示了如何在不同距离级别上分层处理特征。
-
介绍了一种在推断期间集中处理高注意区域的方法,以提高预测准确性。
-
该方法在两个组织病理学数据集上显著提高了性能。
-
指出了进一步研究的有希望的方向。
🏷️
标签
➡️