SUM: 基于瞳蛇的视觉注意力建模中的显著性统一
原文中文,约500字,阅读约需2分钟。发表于: 。通过将 Mamba 的高效远程依赖建模与 U-Net 相结合,我们提出了一种新颖的方法 SUM(Saliency Unification through Mamba),为不同类型的图像提供统一的模型,并通过全面的评估显示 SUM 能够适应不同的视觉特征并始终优于现有模型,从而使 SUM 成为推动视觉注意力建模的多功能且强大的工具。
该文章介绍了一种名为Vision Mamba-UNetV2的基于状态空间模型的医学图像分割方法。该方法利用Visual State Space(VSS)块捕捉上下文信息,并引入Semantics and Detail Infusion(SDI)增强特征融合。实验结果显示该方法在医学图像分割任务中具有竞争力。