RTA-Former: Reverse Transformer Attention for Polyp Segmentation
原文约100字/词,阅读约需1分钟。发表于: 。我们介绍了一种名为 RTA-Former 的新型网络,其将 transformer 模型作为编码器骨干结构,并在解码器中创新地采用反向注意力(RA)与 transformer 阶段进行增强的边缘分割。实验结果表明 RTA-Former 在五个息肉分割数据集上实现了最先进的(SOTA)性能。RTA-Former 的强大能力有望提高基于 Transformer...
RTA-Former是一种新型网络,使用transformer模型作为编码器骨干结构,并在解码器中创新地采用反向注意力与transformer阶段进行增强的边缘分割。实验结果表明RTA-Former在五个息肉分割数据集上实现了最先进的性能。这种新型网络有望提高基于Transformer的息肉分割的准确性,改善临床决策和患者结果。