基于推断空间缩减的无嵌入 Transformer 的高效语义分割
原文中文,约400字,阅读约需1分钟。发表于: 。我们提出了一种编码器 - 解码器注意力变换器(EDAFormer),它由无嵌入变换器(EFT)编码器和利用无嵌入注意力(EFA)结构的全注意力解码器组成。我们的 EDAFormer 在三个公共基准(包括 ADE20K、Cityscapes 和 COCO-Stuff)中展示出与现有基于变换器的语义分割模型相比的最新性能和高效计算。此外,我们的 ISR 方法在 Cityscapes...
我们提出了一种编码器 - 解码器注意力变换器(EDAFormer),它由无嵌入变换器(EFT)编码器和利用无嵌入注意力(EFA)结构的全注意力解码器组成。EDAFormer在三个公共基准中展示出与现有基于变换器的语义分割模型相比的最新性能和高效计算。此外,我们的ISR方法在Cityscapes数据集中通过将计算成本减少最多61%,从而减少了最小的mIoU性能下降。