RTA-Former: 反向 Transformer 注意力用于息肉分割

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

RTA-Former是一种新型网络,使用transformer模型作为编码器骨干结构,并在解码器中创新地采用反向注意力与transformer阶段进行增强的边缘分割。实验结果表明RTA-Former在五个息肉分割数据集上实现了最先进的性能。这种新型网络有望提高基于Transformer的息肉分割的准确性,改善临床决策和患者结果。

🎯

关键要点

  • RTA-Former是一种新型网络,使用transformer模型作为编码器骨干结构。
  • 解码器中创新地采用反向注意力与transformer阶段进行增强的边缘分割。
  • 实验结果表明RTA-Former在五个息肉分割数据集上实现了最先进的性能。
  • RTA-Former有望提高基于Transformer的息肉分割的准确性。
  • 这种新型网络可能改善临床决策和患者结果。
  • 代码将在GitHub上公开。
➡️

继续阅读