本研究提出了一种新颖的对象级时间对比损失,解决了无监督视频对象中心学习中的时间一致性问题,显著提升了对象中心表示的时间一致性,从而支持更可靠的视频分解和动态预测。
该文介绍了一种视频分解方法,可对具有时空变化照明和运动效果的视频进行基于层次的编辑。通过神经模型将输入视频分解为多个分层表示,包括2D纹理贴图、原始视频的掩码以及表征光照条件时空变化的乘法残差。该方法可以高效学习1080p视频的基于层次的神经表示,并在单个GPU上实时渲染编辑结果。同时,提出了采用特征跟踪评估指标来客观评估视频编辑的一致性。
该研究提出了一种基于深度学习的无监督视频分解方法,可以将视频分解为三维几何、运动物体和它们的运动。通过训练深度网络来预测姿态和深度,最小化合成图像与真实图像之间的误差。该方法在KITTI和EPIC-Kitchens上表现出竞争力的性能。
完成下面两步后,将自动完成登录并继续当前操作。