本研究提出动态点图(DPM)概念,旨在解决动态场景下的三维重建问题,支持运动分割、场景流估计和三维物体跟踪等任务。通过引入时间和多个空间、时间参考组合,实现了在各类基准测试中的先进性能。
本研究提出了ProtoFormer框架,结合原型学习和Transformer,适用于多种动作任务。交叉注意力原型化发现动作模式,提供对动作场景的理解。潜在同步缓解动作不确定性。实验证明该方法在多个动作任务上有竞争力。适用于物体跟踪和视频稳定等应用任务。
Object Language Video Transformer (OLViT)是一种新颖的视频对话模型,解决了视频对话中准确的物体跟踪、空间和时间定位以及长期推理的挑战。它通过结合物体状态跟踪和语言状态跟踪来维护全局对话状态。OLViT非常灵活,可以与大型语言模型(LLM)无缝集成,适用于不同的数据集和任务。在具有挑战性的数据集上的评估结果显示,OLViT实现了最先进的性能。
本文介绍了一种新的物体跟踪方法,利用深度学习和循环神经网络进行序列建模,能够处理包括遮挡物在内的传感器数据,适用于机器人类应用中的2D激光数据跟踪任务。
完成下面两步后,将自动完成登录并继续当前操作。