11B模型拿开源视频生成SOTA!仅用224张GPU训练,训练成本省10倍
💡
原文中文,约3500字,阅读约需9分钟。
📝
内容提要
Open-Sora 2.0发布,采用11B参数,训练仅需224张GPU,成本降至20万美元,性能媲美主流闭源模型。支持720P、24FPS高画质生成,具备丰富场景切换,显著提升视频生成效率与质量,成为开源视频生成的新标杆。
🎯
关键要点
- Open-Sora 2.0正式发布,采用11B参数规模。
- 训练仅需224张GPU,成本降至20万美元,节省10倍。
- 支持720P、24FPS高画质生成,具备丰富场景切换。
- 性能媲美主流闭源模型,如HunyuanVideo和Step-Video。
- 全面开源模型权重、推理代码及分布式训练全流程。
- 在VBench评测中,Open-Sora 2.0的性能显著提升,接近行业领先闭源模型。
- 通过严格的数据筛选和高效训练方法,显著降低训练成本。
- 采用高压缩比自编码器,推理速度提升10倍,降低推理成本。
- Open-Sora 2.0致力于推动AI视频生成技术的发展,欢迎开发者加入社区。
❓
延伸问答
Open-Sora 2.0的主要特点是什么?
Open-Sora 2.0采用11B参数规模,训练仅需224张GPU,成本降至20万美元,支持720P、24FPS高画质生成,具备丰富场景切换。
Open-Sora 2.0与闭源模型相比有什么优势?
Open-Sora 2.0的性能媲美主流闭源模型,如HunyuanVideo和Step-Video,但训练成本仅为闭源模型的十分之一。
Open-Sora 2.0是如何降低训练成本的?
通过严格的数据筛选、高效的训练方法和高压缩比自编码器,Open-Sora 2.0显著降低了训练成本。
Open-Sora 2.0支持哪些视频生成特性?
Open-Sora 2.0支持720P高分辨率和24FPS流畅度,能够生成细腻的动作和丰富的场景切换。
Open-Sora 2.0的开源内容包括哪些?
Open-Sora 2.0全面开源模型权重、推理代码及分布式训练全流程,欢迎开发者参与。
Open-Sora 2.0在VBench评测中的表现如何?
Open-Sora 2.0在VBench评测中取得的分数已超过腾讯的HunyuanVideo,性能显著提升,接近行业领先闭源模型。
🏷️
标签
➡️