本研究提出了一种梦纹理方法,通过单目深度线索重建3D对象,有效解决了无监督3D重建中的计算成本和约束问题。实验结果表明,该方法能够充分利用纹理线索,提升单目重建效果。
本研究提出了一种“视频深度任意物体”模型,解决了单目深度估计在视频中的时间不一致性问题。该模型在超长视频中实现了高质量的一致性深度估计,且效率未受影响,实验结果在多个基准上创下新纪录。
我们提出了一种新方法,通过3D高斯喷洒实现稀疏视图合成,无需相机姿态。该方法利用单目深度和2D对应关系,优化相机注册和深度调整。在多个数据集上表现优于竞争方法,且随着视图数量增加,质量持续提升。
该方法使用3D高斯喷洒技术进行稀疏视图合成,无需相机姿态。通过单目深度和像素投影构建解决方案,检测2D对应关系,实现相机注册和姿态调整。引入预期表面进行优化,最终反投影。实验表明,在Tanks和Temples数据集上,该方法仅用三个视图即可优于其他方法,且视图增加效果更佳。
通过3D高斯喷洒方法,开发了一种无需相机姿态的稀疏视图合成的新构建和优化方法。使用单目深度和将像素投影回3D世界逐步构建解决方案,并通过检测训练视图与渲染图像之间的2D对应关系,开发了统一可微的管道来完成相机注册和相机姿态与深度的调整。在Tanks和Temples以及Static Hikes数据集上,展示了仅使用三个广泛间隔的视图的结果,质量明显优于竞争方法。使用一半数据集时,随着视图数量的增加,结果改善,并且超过了先前的方法。
本研究提出了一种基于自我监督单目深度和自我运动学习原理的外参标定新方法,能够稳健高效地实现自我标定,并展示了外参自校准通过联合优化改进深度估计的优势。
完成下面两步后,将自动完成登录并继续当前操作。