用于神经场景重建的光线距离体渲染
原文中文,约300字,阅读约需1分钟。发表于: 。该研究解决了现有神经场景重建方法中存在的密度函数建模不一致的问题,提出了一种新的方法,通过签名光线距离函数(SRDF)来参数化密度函数。研究发现,SRDF提供的密度更能准确反映室内场景的真实占用情况,从而显著提升了重建和视图合成的表现。
RayDF是一种新的框架,用于连续三维形状表示,包括光线-表面距离场、双光线可见性分类器和多视图一致性优化模块。通过广泛评估,证明了该方法在合成和真实的三维场景中对三维表面点重建的显著性能,超越了现有的基准方法。与基于坐标的方法相比,该方法在渲染深度图像时速度提高了1000倍。