本研究提出了一种无标签的无监督模型,针对复杂内镜场景中的外科器械分割问题。通过多视图归一化切割器和图切割损失函数,显著提升了模型的效果和泛化能力,实验结果在多个数据集上表现优异。
本研究提出两种局部病变生成方法,以增强有限的医学影像数据集,解决过拟合和泛化能力问题。结合图像修复GAN与经典技术,实现胶囊内镜病变分类,宏观F1分数为33.07%。
本研究提出了一种新方法,结合卷积神经网络与变换器模型,提升视频胶囊内镜中的异常分类性能。验证集准确率达到86.34%,AUC-ROC分数为0.9908,显著改善了分类效果。
本研究探讨了内镜视频中溃疡性结肠炎严重性评估的自动化问题。传统方法耗时且评审者间差异大。提出的Arges框架利用时空变换器结合帧特征信息,提高了UC严重性评分的准确性,MES评分提升了4.1%。
提出了一种多路径框架,通过手术视频自动预测手术成功率,综合考虑手术工具使用和术中事件模式等多个技能,并通过路径依赖模块建模这些关系。在JIGSAWS模拟数据集和真实腹腔镜手术数据集上测试,框架表现优异,Spearman相关性从0.71提升至0.80,证明多技能结合优于单一技能。
OphNet是一个大规模眼科手术视频数据集,包含2,278个视频,涵盖66种手术类型,详细注释了102个手术阶段和150个操作。数据集支持时间定位和预测任务,总时长约205小时,比现有基准大20倍。数据集和代码已在GitHub开放。
本研究提出了SPRMamba框架,解决了内镜下黏膜下解剖手术中手术阶段实时识别的准确性问题。实验结果显示,SPRMamba在不同的手术阶段识别任务中优于现有的最佳方法。
本文介绍了在Auto WCEBleedGen挑战赛中使用的方法,包括使用Swin Transformer进行出血帧分类和使用RT-DETR检测无线胶囊内窥镜图像中的出血。通过图像预处理步骤,如转换颜色空间、对比度增强和抑制伪影,实现了高准确率和F1得分。验证集上的分类准确率达到了98.5%,测试集上为87.0%。
通过引入点邻域学习、增强训练监督及扩充数据多样性,我们提出了一种弱半监督方法,名为 Point-Neighborhood Learning (PNL) 框架,用于医学图像中的点注释,显著提高了性能并不改变分割网络结构。
这篇综述介绍了计算机视觉和人工智能在心胸外科手术中的新机遇。通过运动追踪和姿态估计技术,可以深入了解外科医生的专业知识和手术性能发展,并为实习医生提供反馈和支持。利用人工智能进行专家评估可以帮助确定实习生的胜任水平。
建立计算机辅助诊断系统,支持医生进行内支气管超声手术中的初步诊断。通过立即检查其他部位,减少等待时间,早期发现其他癌症,实施早期治疗计划。使用少样本学习和Batch Spectral Regularization(BSR)作为损失函数和Finetune的修改,提高模型能力。
通过提出的运动引导的双摄像头跟踪器,在低成本的机械模拟器中提供可靠的内窥镜尖端位置反馈,用于内窥镜技能评估,并且能够解决多个独特的挑战。
该研究提出了一种新的基于差异的主动学习方法,通过减小类激活图与真实结果之间的差距来提高性能。使用WCE数据集评估,结果表明该方法优于最先进的主动学习方法,并且在只标记了10%的训练数据的情况下达到与完全标记数据集训练的方法相当的性能。
内窥镜图像分析中深度学习取得进展,特别是卷积神经网络。研究提出轻量级模型,适用于资源有限环境,采用知识蒸馏和多头注意力特征融合,实验显示其有效性。
完成下面两步后,将自动完成登录并继续当前操作。