自监督视觉 Transformer 是可扩展的领域泛化生成模型
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
我们提出了一种基于Transformer的多例学习方法,使用区域视觉Transformer自注意机制替代传统的学习注意机制。该方法在两个组织病理学数据集上显著提高了性能,并指出了进一步研究的有希望的方向。
🎯
关键要点
- 提出了一种基于Transformer的多例学习方法。
- 使用区域视觉Transformer自注意机制替代传统学习注意机制。
- 通过融合区域块信息来预测整张幻灯片。
- 展示了如何在不同距离级别上分层处理特征。
- 介绍了一种在推断期间集中处理高注意区域的方法,以提高预测准确性。
- 该方法在两个组织病理学数据集上显著提高了性能。
- 指出了进一步研究的有希望的方向。
🏷️
标签
➡️