FMAS是一个用于语义分割的多目标神经架构搜索框架,通过子采样和验证数据集的子集降低了训练和评估时间。在PASCAL VOC 2012数据集上,FMAS可以快速找到性能更强且计算成本更低的模型。在边缘设备上,FMAS可以找到比现有体系结构快2.2倍的神经网络。
本文介绍了一种自适应的弱监督语义分割方法,通过划分图像内容为确定性区域和不确定性区域进行分别处理,提高准确性。实验证明该方法在PASCAL VOC 2012和MS COCO 2014上优于基准方法。
本文介绍了一种名为自适应补丁对比的新型ViT-based WSSS方法,通过增强补丁嵌入学习来提高分割效果。实验证明该方法在PASCAL VOC 2012和MS COCO 2014数据集上表现优于其他WSSS方法。
本文提出了一种基于误差定位网络的半监督语义分割方法,解决了伪标签问题,提高了性能。在PASCAL VOC 2012和Cityscapes数据集上表现出卓越性能。
本文提出了一种基于残差网络的高性能语义图像分割方法,并对不同变体的完全卷积残差网络进行了评估。通过低分辨率网络模拟高分辨率网络、在线启动方法和传统退化法的应用,取得了在 PASCAL VOC 2012 数据集和 Cityscapes 上最好的性能表现。
SegCLIP是基于CLIP的模型,实现了开放式词汇语义分割,通过训练文本-图像对形成语义区域。模型在PASCAL VOC 2012、PASCAL Context和COCO上实现了高精度分割。
本文提出了一种名为LOST的简单方法,用于在图像集合中定位目标,无需昂贵的注释活动。该方法利用自我监督方式预训练的视觉转换器的激活特征,实验结果表明,该方法在PASCAL VOC 2012上的表现优于最先进的目标发现方法,最高可达8 CorLoc点。通过训练一个不具有类别属性的检测器,可以再次提高7个点。在无监督对象发现任务上也展示了有希望的结果。
完成下面两步后,将自动完成登录并继续当前操作。