RTA-Former: 反向 Transformer 注意力用于息肉分割
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
RTA-Former是一种新型网络,使用transformer模型作为编码器骨干结构,并在解码器中创新地采用反向注意力与transformer阶段进行增强的边缘分割。实验结果表明RTA-Former在五个息肉分割数据集上实现了最先进的性能。这种新型网络有望提高基于Transformer的息肉分割的准确性,改善临床决策和患者结果。
🎯
关键要点
- RTA-Former是一种新型网络,使用transformer模型作为编码器骨干结构。
- 解码器中创新地采用反向注意力与transformer阶段进行增强的边缘分割。
- 实验结果表明RTA-Former在五个息肉分割数据集上实现了最先进的性能。
- RTA-Former有望提高基于Transformer的息肉分割的准确性。
- 这种新型网络可能改善临床决策和患者结果。
- 代码将在GitHub上公开。
➡️