FutureDepth: 学习预测未来提高视频深度估计
原文中文,约500字,阅读约需1分钟。发表于: 。本研究提出一种新颖的视频深度估计方法 ——FutureDepth,通过让模型在训练时学习预测未来来隐式地利用多帧和运动线索来改善深度估计。通过将多帧特征输入到未来预测网络 F-Net 中,模型迭代地预测多帧特征,从而学习了底层的运动和对应信息,并将其特征融入到深度解码过程中。为了丰富多帧对应线索的学习,还利用自适应掩码的多帧特征体积的重建网络 R-Net...
本研究提出了一种新的视频深度估计方法FutureDepth,通过学习预测未来来改善深度估计。实验证明FutureDepth在准确性和效率方面优于基线模型,创造了最新的准确性水平。