11B模型拿开源视频生成SOTA!仅用224张GPU训练,训练成本省10倍

💡 原文中文,约3500字,阅读约需9分钟。
📝

内容提要

Open-Sora 2.0发布,采用11B参数,训练仅需224张GPU,成本降至20万美元,性能媲美主流闭源模型。支持720P、24FPS高画质生成,具备丰富场景切换,显著提升视频生成效率与质量,成为开源视频生成的新标杆。

🎯

关键要点

  • Open-Sora 2.0正式发布,采用11B参数规模。
  • 训练仅需224张GPU,成本降至20万美元,节省10倍。
  • 支持720P、24FPS高画质生成,具备丰富场景切换。
  • 性能媲美主流闭源模型,如HunyuanVideo和Step-Video。
  • 全面开源模型权重、推理代码及分布式训练全流程。
  • 在VBench评测中,Open-Sora 2.0的性能显著提升,接近行业领先闭源模型。
  • 通过严格的数据筛选和高效训练方法,显著降低训练成本。
  • 采用高压缩比自编码器,推理速度提升10倍,降低推理成本。
  • Open-Sora 2.0致力于推动AI视频生成技术的发展,欢迎开发者加入社区。

延伸问答

Open-Sora 2.0的主要特点是什么?

Open-Sora 2.0采用11B参数规模,训练仅需224张GPU,成本降至20万美元,支持720P、24FPS高画质生成,具备丰富场景切换。

Open-Sora 2.0与闭源模型相比有什么优势?

Open-Sora 2.0的性能媲美主流闭源模型,如HunyuanVideo和Step-Video,但训练成本仅为闭源模型的十分之一。

Open-Sora 2.0是如何降低训练成本的?

通过严格的数据筛选、高效的训练方法和高压缩比自编码器,Open-Sora 2.0显著降低了训练成本。

Open-Sora 2.0支持哪些视频生成特性?

Open-Sora 2.0支持720P高分辨率和24FPS流畅度,能够生成细腻的动作和丰富的场景切换。

Open-Sora 2.0的开源内容包括哪些?

Open-Sora 2.0全面开源模型权重、推理代码及分布式训练全流程,欢迎开发者参与。

Open-Sora 2.0在VBench评测中的表现如何?

Open-Sora 2.0在VBench评测中取得的分数已超过腾讯的HunyuanVideo,性能显著提升,接近行业领先闭源模型。

➡️

继续阅读