基于深度感知的少量视角新颖视图合成的3D高斯点云
原文中文,约400字,阅读约需1分钟。发表于: 。本研究解决了3D高斯点云在少量输入视角下合成新颖视图性能显著下降的问题。提出了一种深度感知的高斯点云方法,利用单目深度预测作为先验,并通过尺度不变深度损失来约束3D形状。实验结果表明,该方法在峰值信噪比、结构相似性指数和感知相似性方面均优于传统3D高斯点云方法,验证了其有效性。
该方法使用3D高斯喷洒技术进行稀疏视图合成,无需相机姿态。通过单目深度和像素投影构建解决方案,检测2D对应关系,实现相机注册和姿态调整。引入预期表面进行优化,最终反投影。实验表明,在Tanks和Temples数据集上,该方法仅用三个视图即可优于其他方法,且视图增加效果更佳。