本文提出了一种自监督学习方案,以提高无人机在无GPS环境中的自我运动估计能力。通过改进遮挡处理方法,显著提升了无人机在高速飞行和接近障碍物时的视觉识别准确性,增强了实际应用表现。
本研究提出了一种新颖的事件增强网络Ev-DeblurVSR,旨在解决模糊视频超分辨率问题。通过融合帧与事件信息,该方法显著提高了运动估计和去模糊效果,实验证明在真实数据上准确性提升2.59 dB,速度提高7.28倍。
该研究提出了一种名为V$^2$-SfMLearner的新方法,结合振动信号与视觉信号,以提高胶囊内窥镜视频中的深度和运动估计准确性,有效消除振动干扰,提升消化系统检查的实时性和可靠性。
本研究提出OmniDrag方法,解决全向视频生成中的内容不准确和不一致问题,尤其在复杂球形运动场景中。通过新颖的运动估计器和Move360数据集,显著提升了生成的准确性和质量。
本研究提出了一种基于残差的光流估计方法,有效解决了事件摄像头在高时间分辨率下运动估计的数据稀疏性问题,显著提高了准确性。
本文提出了AsynEIO模型,旨在融合异步事件相机与惯性传感器以提高运动估计的精度。该模型基于高斯过程回归,结合事件驱动前端和惯性因子,实现高效的运动轨迹追踪与优化。实验结果表明,AsynEIO在高速度和低光照条件下表现优于现有方法,具有实际应用价值。
本研究提出了一种自监督深度学习框架(LAPANet),有效解决了快速动态成像中的运动估计问题。该方法在心脏运动估计方面优于传统技术,为动态MRI应用提供了新思路。
我们提出了GaussianAvatar,一种从单个视频生成动态3D人类化身的方法。通过3D高斯函数表示不同姿势和服装,增强动态属性以支持姿势相关的外观建模。利用可微分的运动条件,实现动作和外观的联合优化,解决单眼设置中的运动估计问题。实验表明其在外观质量和渲染效率上表现优异。
本研究提出了一种名为MOWA的多合一图像变形模型,通过分离运动估计和引入轻量级分类器,为不同的变形任务提供动态的任务感知图像变形。实验证明,MOWA模型在六个任务的训练中表现优于最先进的任务特定模型,并具有泛化能力。代码将公开可用。
本文提出了一种新的方法,通过引入基于梯度的优化算法,利用 Cone-beam CT 的几何结构的广义导数,加快了运动估计的速度,提高了准确性,并在临床工作流中集成了 CBCT,解决了时效性场景中的关键挑战。
本文介绍了一种名为自适应图推理的光流图算法,通过利用场景信息和上下文信息,提高了运动估计的鲁棒性和准确性。在Sintel干净和最终通行证上,其EPE分别为1.43和2.47像素,比现有技术提高了11.2%和13.6%。
本文介绍了一种新的运动估计方法MaskFlow,能够准确估计小目标、大位移和外观剧变情况下的运动场。通过利用物体级特征和分割,MaskFlow近似物体的平移运动场,并提出了一种有效的方法将不完整的平移运动场结合到后续的运动估计网络中进行精化和补全。作者还提供了一个具有运动场Ground Truth的新的挑战性合成数据集,并为对象实例匹配和相应分割掩码提供了额外的Ground Truth。实验证明,MaskFlow在新的挑战性数据集上优于现有方法,并且在FlyingThings3D基准数据集上也能产生可比较的结果。
完成下面两步后,将自动完成登录并继续当前操作。