从合成的场景图进行的跨视图自定位

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文提出了一种新的街景神经辐射场模型(S-NeRF),通过改进参数化函数和学习神经表示来提高街景合成的质量。实验证明,S-NeRF 模型在大规模驾驶数据集上表现优于现有最先进方法,能够减少均方误差并提高渲染质量。

🎯

关键要点

  • 提出了一种新的街景神经辐射场模型(S-NeRF)。
  • S-NeRF 通过改进场景参数化函数和学习更好的神经表示来提高街景合成质量。
  • 模型考虑了大规模背景场景和前景移动车辆的新视角合成。
  • 使用嘈杂和稀疏的 LiDAR 点来提高训练的鲁棒性,减少深度奇异值出现的情况。
  • 实验证明 S-NeRF 在大规模驾驶数据集上优于现有方法,均方误差减少了 7% 至 40%。
  • 在移动车辆渲染的 PSNR 方面,S-NeRF 获得了 45% 的增益。
➡️

继续阅读