该研究提出了一种不确定性指导的粗到细肿瘤分割框架,应用于胸部CT图像。该方法结合全体积肿瘤定位与细化分割,通过解剖意识后处理提高分割准确性,减少误报,增强空间可解释性,展示了不确定性建模与解剖信息结合的价值。
本研究提出了一种基于Shapley值的医学图像分割方法,以提高模型的解释性。结果表明,不同模型在肿瘤分割中的表现存在差异,U-Net在T1对比和FLAIR上存在偏见,而Swin-UNETR模型在多对比理解方面具有优势,具有潜在的临床应用价值。
本研究提出了一种新颖的Attention Xception UNet(AXUNet)架构,结合了Xception主干和自注意力模块,优化脑胶质瘤肿瘤分割。AXUNet在肿瘤轮廓划分上表现优异,平均Dice分数达到93.73,显示其在临床应用中的潜力。
本研究针对罕见的胰腺神经内分泌肿瘤(pNETs),建立了一个包含469位患者的对比增强CT图像数据集,并引入新的切片加权损失函数,以提升肿瘤分割性能,从而改善pNET的诊断和患者预后。
本研究提出了一种新方法,通过利用放疗前的肿瘤区域和局部梯度图,提高头颈癌肿瘤体积分割的准确性。这对自适应放疗的分割和治疗计划有积极影响,可能改善患者治疗效果。
本研究提出了一种新方法UMambaAdj,用于头颈癌MRI引导自适应放疗中的肿瘤分割。结合UMamba和nnU-Net Residual Encoder的优势,在HNTS-MRG 2024测试集上,T2加权MRI图像的GTVp和GTVn平均Dice系数分别为0.751和0.842,显示出提高肿瘤勾画精度的潜力。
在医学影像中,传统分割方法处理肿瘤时有局限。提出的双提示模式结合视觉和文本提示,创新模型CAT通过3D裁剪图像生成解剖提示,并改进分割效果。CAT在多个CT数据集上表现优异,特别是在肿瘤分割中,展示了多模式提示的潜力。
在医学影像中,传统分割方法处理肿瘤时有局限。提出的双提示模式结合视觉和文本提示,创新模型CAT通过3D图像生成解剖提示,并改进分割效果。CAT在多个CT数据集上表现优异,特别是在肿瘤分割中,验证了多模式提示的潜力。
美国顶级医疗中心和研究机构的专家委员会正在利用NVIDIA提供的联邦学习技术评估联邦学习和AI辅助标注对肿瘤分割AI模型训练的影响。研究小组使用NVIDIA FLARE框架进行模型训练,并使用NVIDIA MONAI进行AI辅助标注。项目完成后,团队计划公开他们的方法论、标注数据集和预训练模型,以支持未来的工作。
本研究使用生成性对抗网络训练生成合成MRI图像,提高肿瘤分割性能并证明生成模型作为匿名化工具的价值,为解决医学成像中的挑战提供潜在解决方案。
该研究提出了一种混合有导师的框架(StMt),用于腹部器官和肿瘤的分割。实验证明该方法在准确性、速度和资源利用方面表现优异。
该研究引入了适用于医学数据的MA-SAM框架,通过注入3D适配器,使2D主干能够从输入数据中提取第三维信息。在医学图像分割任务中,该方法在多个数据集上表现优于其他三维方法,Dice指标分别超过nnU-Net 0.9%、2.6%和9.9%。在肿瘤分割任务中,该模型也表现出色。
本研究使用生成性对抗网络训练生成合成MRI图像,提高肿瘤分割性能并证明生成模型作为匿名化工具的价值,为医学成像中的挑战提供潜在解决方案。
该研究使用SegResNet和MedNeXt等CNN模型进行肿瘤分割,并引入后处理方法提高分割性能。在BraTS 2023挑战中,取得第三名,测试集上的平均Dice和HD95分数分别为0.8313和36.38。
本研究使用生成性对抗网络训练生成合成MRI图像,提高肿瘤分割性能并证明生成模型作为匿名化工具的价值,为解决医学成像挑战提供潜在解决方案。
通过使用Resblock-backbone和Transformer-bottleneck构建16亿参数的大规模肿瘤分割基础模型(TSFM),融合了7个肿瘤数据集和3个多器官数据集,构建了一个三维医学数据集池。TSFM是用于医学影像分割的预训练模型,性能高于nnU-Net,且在迁移学习任务中只需5%的训练轮次即可达到相似的性能。预训练的TSFM模型及其代码即将发布。
本研究提出了一种新的成像方法RT-SRTS,能够实时进行3D重建和肿瘤分割。该方法在十个患者病例上进行了评估,结果显示出优越的3D重建效果和肿瘤分割结果。同时重建和分割速度快,约70毫秒。有效性也通过消融研究得到了验证。
通过对nnU-Net模型进行修改和优化,结合BraTS特定的修改,提高了其在BraTS 2020挑战中的肿瘤分割性能,最终获得第一名。
该研究使用生成性对抗网络训练生成合成MRI图像,提高肿瘤分割的性能,并证明了生成模型作为匿名化工具的价值。这为解决医学成像中机器学习面临的挑战提供了潜在的解决方案。
完成下面两步后,将自动完成登录并继续当前操作。