xLSTM-UNet 可作为一个有效的 2D 和 3D 医学图像分割骨干,其 Vision-LSTM (ViL) 相较于其 Mamba 对应物更佳
原文中文,约500字,阅读约需2分钟。发表于: 。提出了 xLSTM-UNet,这是一种基于 Convolutional Neural Networks 和 Vision Transformers 的深度学习神经网络,用于解决生物医学图像分割中的长距离依赖性问题,并通过实验证实了其在多个数据集中超越了其他基于 CNN、Transformer 和 Mamba 的分割网络,表明了 xLSTM-UNet 在 2D 和 3D 生物医学图像分析中的潜力。
自回归网络的线性复杂度提升推动了研究进展,xLSTM是代表性模型,融合了门控机制和记忆结构,在长序列语言任务上表现出色。本研究评估了Vision-LSTM在遥感图像语义分割中的有效性,发现其表现受限,建议未来增强Vision-LSTM。