基于原型核学习和开放集前景感知的广义少样本语义分割
原文中文,约400字,阅读约需1分钟。发表于: 。通过联合原型核心学习和开放式前景感知,我们提出了泛化少样本语义分割(GFSS)方法,以准确分割未见过的类别和已见过的类别,在 PASCAL-5i 和 COCO-20i 数据集上表现优于先前的最先进技术。
本文介绍了一个名为广义Few-Shot语义分割(GFS-Seg)的新基准数据集,用于分析在同时分割具有非常少示例的新类别和具有足够示例的基础类别的情况下的内在泛化能力。提出了一种名为上下文感知原型学习(CAPL)的方法来提高模型性能,通过利用共现先验知识和动态丰富上下文信息到分类器,条件是基于每个查询图像的内容。在Pascal-VOC和COCO上的实验表明CAPL在Few-Shot Segmentation上具有很好的泛化性能,并且与现有方法相比具有竞争力。