本文介绍了NavFoM,一个跨任务和跨形态的具身导航基础模型。该模型通过处理自我视角视频和语言指令来预测导航轨迹,经过八百万个样本的训练,采用时序-视角指示符token和预算感知时序采样策略,以提升模型的泛化能力和实用性。研究者强调开源和分享对技术影响力的重要性。
本文介绍了NavA3框架,旨在解决具身导航中的高层次指令理解与空间定位问题。该框架包括全局策略和局部策略,利用视觉语言模型解析指令并确定目标位置,随后通过NaviAfford模型实现精确导航。研究表明,NavA3在真实环境中的长时导航任务中表现优异,展现出强大的跨载体能力。
完成下面两步后,将自动完成登录并继续当前操作。