配对视觉地点识别:针对视觉地点识别的空间感知预训练和对比配对分类
原文中文,约200字,阅读约需1分钟。发表于: 。本研究针对现有视觉地点识别方法的不足,提出了一种新的联合训练方法,通过同时学习全局描述符和配对分类器来增强识别精度。研究表明,采用Siamese掩码图像建模进行预训练,并利用空间感知的图像采样,可以在多个基准数据集上实现视觉地点识别的最先进性能,具有重要的实际应用价值。
我们提出了一种新的视觉位置识别框架,利用鸟瞰视角的结构线索生成描述符。在VPR-NuScenes数据集上,Recall@1提高了2.47%,难样本上提高了18.06%。