该研究提出了FedSaaS框架,解决了联邦语义分割在处理异构问题时类表示模糊的问题。通过全局原型监督和局部对抗协调,确保不同层次输出的一致性,显著提高了多个数据集的分割准确性。
本研究提出PNN-UNet方法,通过模拟平面神经网络结构处理三维医学图像数据,解决了分割准确性不足的问题。PNN-UNet结合深度UNet和广度UNet结构,性能优于传统UNet,尤其在三维MRI海马体数据集上表现突出,具有显著应用潜力。
该研究提出了一种新型的注意力U形Kolmogorov-Arnold网络(AttUKAN),旨在提高视网膜血管分割的细粒特征提取能力。通过标签引导的逐像素对比损失,增强了模型的敏感性和解释性。实验结果表明,AttUKAN在多个公开数据集上取得了最佳的F1和MIoU评分,显示了其在提高分割准确性方面的潜力。
该研究提出了一种不确定性指导的粗到细肿瘤分割框架,应用于胸部CT图像。该方法结合全体积肿瘤定位与细化分割,通过解剖意识后处理提高分割准确性,减少误报,增强空间可解释性,展示了不确定性建模与解剖信息结合的价值。
本研究提出了一种新型医学图像分割模型OMT-SAM,旨在提高多脏器扫描的分割准确性。该模型结合用户文本提示与图像特征,通过CLIP编码器提供上下文引导,显著提升了复杂医学图像的分割性能。
本研究综述了点云语义分割方法,针对自动驾驶的环境理解需求,提出了三种主要分类:基于投影、基于3D和混合方法。强调了数据集和合成数据的重要性,为未来研究提供了方向,并比较了不同方法的分割准确性和效率。
视频目标分割(VOS)旨在自动分割视频中的目标,广泛应用于多个领域。现有方法在复杂场景中面临挑战。本文提出逐帧和逐段时空交互记忆网络(FSSTIM),通过整合多粒度时空信息,提升分割准确性和效率,尤其在处理遮挡和相似目标时表现优异。实验结果表明,FSSTIM在多个数据集上超越现有方法,具有重要应用价值。
本文提出了Mamba引导的Segment Anything模型(SAM-Mamba),有效解决了结肠镜下息肉分割问题,显著提升了分割准确性,适用于临床实时应用。
本研究提出自适应增强一致性学习(AACL)框架,以解决遥感分割中高质量标记图像稀缺的问题。通过均匀强度增强和自适应剪切混合,从未标记图像中提取信息,提升分割准确性,特定类别性能提高20%。
本研究提出了一种基于隐马尔可夫模型的无学习方法,解决了自主体在动态环境中识别运动物体的难题,显著提高了运动物体分割的准确性,实验结果优于现有技术。
本文介绍了一种创新的自动息肉分割方法,利用自我增强语义模型提高特征提取和分割准确性,在五个基准数据集上表现优于现有方法。
ASF-YOLO是一种新颖的基于注意力尺度序列融合的YOLO框架,用于细胞实例分割。ASF-YOLO通过增强多尺度信息提取能力和融合不同尺度的特征图来提高分割准确性和速度。实验证明ASF-YOLO在细胞数据集上表现出色,优于现有方法。
ASF-YOLO是一种新的基于注意力尺度序列融合的YOLO框架,用于细胞实例分割。它采用尺度序列特征融合和三重特征编码器模块来增强多尺度信息提取能力,并引入通道和位置注意机制来提高检测和分割性能。实验证明ASF-YOLO在细胞数据集上具有显着的分割准确性和速度。
本文提出了一种名为SLCNet的新型受监督的长程关联方法,用于土地覆盖分类。该方法在地物遥感图像上的表现优于当前使用的非监督策略。SLCNet通过使用地面真实语义分割图中的类别一致性信息进行监督,使属于同一类别的像素高度相关而具有不同类别的像素不相关,从而产生了更一致的重校准特征。为了提高分割准确性,SLCNet采用了多尺度边输出监督和混合损失函数作为局部和全局约束。实验证明,SLCNet在所有数据集上都实现了最先进的性能。
完成下面两步后,将自动完成登录并继续当前操作。