本研究提出了一种新的方法,通过结合场景几何、物体中心跟踪和实例分割,解决了自我中心视频中的3D场景理解挑战。实验结果表明,该方法在跟踪和分割一致性指标上优于现有的二维方法。
本文介绍了基于事件相机的快速线性和连续时间非线性求解器,用于从视觉数据中恢复相机运动和场景几何。研究表明这些方法在准确性和效率方面具有优势,并展示了连续时间非线性求解器在适应运动突变方面的能力。
本研究提出了一种新型表面重建框架,使用神经隐式表达、立体匹配和特征保持来表示场景几何和外观。该方法通过优化特征一致性和图像保真度,提高了复杂场景拓扑的重建鲁棒性。实验结果显示该方法在广阔场景网格重建方面表现更佳。
该方法使用密度体素网格表示场景几何和浅层网络表示视角相关的外观,训练时间缩短到15分钟以内,达到前沿的质量水平。
完成下面两步后,将自动完成登录并继续当前操作。