本文研究了混合数据深度预测训练中的位移不变重建损失,解决了未知深度偏移和相机焦距问题。提出了两阶段框架实现单目图像深度预测,并使用三维点云编码器预测深度偏移和焦距,恢复逼真的3D场景形状。通过图像级标准化回归损失和基于法向几何损失的方法,增强了深度预测模型。在9个不可见数据集上测试,取得了零样本数据集泛化的最新性能记录。
该研究探讨了在混合数据深度预测训练中使用的位移不变重建损失引起的未知深度偏移和未知相机焦距问题。作者提出了一个两阶段框架,使用三维点云编码器预测深度偏移和焦距,以恢复逼真的3D场景形状。他们还提出了图像级标准化回归损失和基于法向几何损失的方法,以增强混合数据集训练的深度预测模型。该模型在9个不可见数据集上进行了测试,并取得了零样本数据集泛化的最新性能记录。
完成下面两步后,将自动完成登录并继续当前操作。