自6月以来,团队在机器人领域快速推进,开发了SmolVLA模型,以提升机器人在新环境中的适应能力。该模型结合视觉、语言和动作(VLA),优化了训练和推理效率,并利用社区数据进行预训练,展现出强大的泛化能力和性能。
Hugging Face推出了SmolVLA,一个轻量级的视觉-语言-动作模型,旨在以低成本和高效能实现机器人控制。该模型基于社区数据训练,优化于单GPU或CPU环境,具备低延迟和高成功率,适用于多种机器人平台。SmolVLA的异步推理提高了控制效率,显著降低了计算需求,为未来的机器人学习研究奠定基础。
完成下面两步后,将自动完成登录并继续当前操作。