本文介绍了一种名为PEVA的模型,该模型通过学习身体关节的运动轨迹来预测自我中心视频,能够生成复杂的动作视频并支持长时间预测。PEVA在真实场景中表现优异,能够模拟人类的目标导向行为,但在规划和任务意图理解方面仍存在局限。未来研究将着重提升模型的互动性和任务导向能力。
本文介绍了一种新颖的3D预训练视觉-语言方法,将2D图像的语言知识和视觉概念应用于3D世界的理解。使用CLIP模型评估编码的3D场景特征的推理能力,并在3D视觉问答任务中证明了该方法的优越性和可解释性。
完成下面两步后,将自动完成登录并继续当前操作。