从合成的场景图进行的跨视图自定位 通过将原始图像的视图不变外观特征和合成图像的视图依赖空间 - 语义特征相结合,利用图神经网络进行压缩学习和识别,该方法在一个包含多个未见过视觉的交叉视图自定位数据集中得到了验证。 本文提出了一种新的街景神经辐射场模型(S-NeRF),通过改进参数化函数和学习神经表示来提高街景合成的质量。实验证明,S-NeRF 模型在大规模驾驶数据集上表现优于现有最先进方法,能够减少均方误差并提高渲染质量。