1段视频=亿万虚拟场景,当真实世界秒变机器人训练场

1段视频=亿万虚拟场景,当真实世界秒变机器人训练场

💡 原文中文,约1100字,阅读约需3分钟。
📝

内容提要

群核科技在GTC2025大会上开源了空间理解模型SpatialLM,突破了传统大语言模型的局限,赋予机器空间认知能力。该模型能够通过视频生成3D场景布局,支持企业微调,降低训练门槛,并与空间智能平台SpatialVerse协同,推动具身智能机器人发展。

🎯

关键要点

  • 群核科技在GTC2025大会上开源了空间理解模型SpatialLM,突破了传统大语言模型的局限。

  • SpatialLM模型能够通过视频生成物理正确的3D场景布局,支持企业微调,降低训练门槛。

  • 该模型已在HuggingFace、GitHub等平台开源,未来将继续迭代功能。

  • 群核科技希望打造一个具身智能训练平台,帮助机器人完成空间认知理解的基础训练。

  • SpatialVerse与SpatialLM模型协同合作,打通现实与虚拟的闭环路径。

  • SpatialVerse的合成数据引擎能够生成亿万级新场景,现实世界数据成为数字道场的原料。

  • 群核科技与多家国内外企业达成合作,推动空间和具身智能训练的发展。

延伸问答

SpatialLM模型的主要功能是什么?

SpatialLM模型能够通过视频生成物理正确的3D场景布局,赋予机器空间认知能力。

群核科技在GTC2025大会上发布了什么重要技术?

群核科技在GTC2025大会上开源了空间理解模型SpatialLM。

SpatialLM模型如何降低训练门槛?

SpatialLM模型支持企业微调,降低了具身智能训练的门槛。

SpatialVerse与SpatialLM模型的关系是什么?

SpatialVerse与SpatialLM模型协同合作,打通现实与虚拟的闭环路径。

群核科技的未来计划是什么?

群核科技计划继续迭代SpatialLM模型的功能,并推动空间和具身智能训练的发展。

SpatialLM模型的开源平台有哪些?

SpatialLM模型已在HuggingFace、GitHub等平台开源。

➡️

继续阅读