本论文提出了一种基于Transformer的伪三维图像匹配方法,通过引入参考图像将源图像的2D特征升级为3D特征,并通过三维匹配与目标图像的2D特征进行匹配,提高了在具有大视角、光照变化或低纹理的场景中的匹配性能。实验结果表明,该方法在同态估计、姿态估计和视觉定位任务中达到了最先进的水平。
本论文提出了一种基于Transformer的伪三维图像匹配方法,通过引入参考图像将源图像的2D特征升级为3D特征,并通过三维匹配与目标图像的2D特征进行匹配,提高了在具有挑战性场景中的匹配性能。实验结果表明,该方法在同态估计、姿态估计和视觉定位任务中达到了最先进的水平。
该研究提出了一种改进的两视图对应关系学习框架,包括局部特征共识插件块和具备相互损失的孪生网络。通过利用互相投影的监督信息,提高了匹配性能,同时不增加模型参数。在基准数据集上取得了最先进的性能。
完成下面两步后,将自动完成登录并继续当前操作。