本研究提出了Splatter-360框架,解决了实时合成宽基线全景图像新视图的挑战,显著提升了深度感知和几何估计能力,实验结果优于现有方法。
OccFiner是一个离线框架,旨在提高基于视觉的占位预测的准确性。该框架通过多对多局部传播网络和区域中心全局传播两个混合阶段来解决几何和语义估计、视角变化连续性以及单视图遮挡等问题。在SemanticKITTI数据集上,OccFiner实现了几何和语义准确性的提升,并超越了基于激光雷达的离线SSC模型的水平。
该文介绍了一种名为RGM的深度模型,用于稀疏和密集匹配。该模型在多个数据集上实现了零样本匹配和下游几何估计的卓越性能,优于先前的方法。同时,该文还构建了一个包含稀疏对应关系真值的新的大规模数据集,缩小了合成训练样本和真实场景之间的差距。
本文提出了一种多摄像机系统,用于实现密集的三维重建和自我运动估计。通过多摄像机间的几何估计和单目深度优化,获得鲁棒的几何深度和姿态估计。同时,通过深度优化网络引入可学习的场景先验,实现了在具有挑战性的动态室外环境中的稠密、一致的三维重建。
完成下面两步后,将自动完成登录并继续当前操作。