本研究提出了一种基于变换器的深度伪造视频检测框架,通过利用运动信息中的方向性不一致模式来提升检测的普适性,并引入时空不变损失以防止过拟合。实验结果表明该方法有效且具有先进性能。
LEIA是一种用于动态物体建模的新方法,利用不同时间状态下的观察条件化超网络学习视图不变的潜在表示。实验结果表明,LEIA能够高效生成新颖的3D关节配置,且不受视角和关节配置的影响,优于依赖运动信息的先前方法。
MotionClone是一个新框架,可以提取参考视频的运动信息,并生成具有定制化运动的文本生成视频。它无需训练或微调,具有更高的运动质量和空间位置关系。通过主成分时序注意力运动指导和空间语义修正,实现了高质量的可控视频生成。
我们提出了一种名为MISC Filter的实时去模糊滤波模型,利用运动估计网络捕捉邻域的运动信息,自适应地估计空间可变的运动流、掩模、卷积核、权重和偏移量。经过四个基准测试的实验表明,该方法为实时世界运动模糊去除提供了有效的解决方案,并达到了最先进的性能。
本文介绍了一种新的方法,利用纹理和运动信息作为监督信号,将 RGB 训练的水域分割网络适用于航空热成像。该方法使得自主航空机器人能够在夜间执行导航、测量和跟踪任务。作者整理了第一个临近海域热成像航空数据集,并证明了该方法的优势。代码和数据集可在指定链接上获取。
该文介绍了一种基于事件相机的无监督学习框架,通过事件流中的运动信息来学习运动。使用该框架训练了两个网络,一个用于预测光流,另一个用于预测自运动和深度。
完成下面两步后,将自动完成登录并继续当前操作。