局部-全局视觉Mamba用于医学图像分割
原文中文,约500字,阅读约需2分钟。发表于: 。本研究解决了现有视覺Mamba模型在医学图像分割中的局部与全局依赖问题。提出的LoG-VMamba通过在通道轴上明确保持空阔相邻的标记,并以压缩形式保留全局上下文,从而实现了高效的局部和全局上下文访问。结果显示,LoG-VMamba在多种2D和3D医学图像分割任务中显著优于传统CNN和Transformer模型。
该文章介绍了基于状态空间模型的Vision Mamba-UNetV2模型在医学图像分割中的优势,通过引入Visual State Space(VSS)块和Semantics and Detail Infusion(SDI)来增强特征融合。实验结果显示该模型在医学图像分割任务中表现出竞争力。