面向肿瘤分割任务中视觉 Transformer 的最优补丁尺寸
原文中文,约200字,阅读约需1分钟。发表于: 。本研究提出了一种基于转移学习的技术,通过使用基于平均体积大小选择理想的补丁尺寸,来优化使用视觉变换器的小物体的语义分割。
本文比较了不同的卷积神经网络和Transformer方法在医学图像数据集上的表现。结果显示,视觉Transformer模型在分类解剖结构、所见和异常方面优于CNN基于的方法。建议将其作为算法开发的新基准算法。
本研究提出了一种基于转移学习的技术,通过使用基于平均体积大小选择理想的补丁尺寸,来优化使用视觉变换器的小物体的语义分割。
本文比较了不同的卷积神经网络和Transformer方法在医学图像数据集上的表现。结果显示,视觉Transformer模型在分类解剖结构、所见和异常方面优于CNN基于的方法。建议将其作为算法开发的新基准算法。