基于推断空间缩减的无嵌入 Transformer 的高效语义分割

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

我们提出了一种编码器 - 解码器注意力变换器(EDAFormer),它由无嵌入变换器(EFT)编码器和利用无嵌入注意力(EFA)结构的全注意力解码器组成。EDAFormer在三个公共基准中展示出与现有基于变换器的语义分割模型相比的最新性能和高效计算。此外,我们的ISR方法在Cityscapes数据集中通过将计算成本减少最多61%,从而减少了最小的mIoU性能下降。

🎯

关键要点

  • 提出了一种编码器 - 解码器注意力变换器(EDAFormer)。

  • EDAFormer由无嵌入变换器(EFT)编码器和全注意力解码器组成。

  • 在三个公共基准(ADE20K、Cityscapes和COCO-Stuff)中展示出最新性能和高效计算。

  • ISR方法在Cityscapes数据集中将计算成本减少最多61%。

  • 减少了最小的mIoU性能下降。

➡️

继续阅读