自监督视觉 Transformer 是可扩展的领域泛化生成模型

BriefGPT - AI 论文速递 BriefGPT - AI 论文速递 ·

我们提出了一种基于Transformer的多例学习方法,使用区域视觉Transformer自注意机制替代传统的学习注意机制。该方法在两个组织病理学数据集上显著提高了性能,并指出了进一步研究的有希望的方向。

原文中文,约300字,阅读约需1分钟。
阅读原文