57.1%的人分不清真假!Runway新视频模型太爆炸

💡 原文中文,约2600字,阅读约需7分钟。
📝

内容提要

Runway新发布的Gen 4.5模型在视频生成方面表现出色,57.1%的人无法分辨生成视频的真实性。该模型在镜头控制、叙事能力和角色一致性上有显著提升,生成的视频更接近真实,连公司员工也难以辨别。整体上,视频的真实度和物理一致性增强,声画同步能力提升,未来可能需要AI来鉴别AI。

🎯

关键要点

  • Runway发布的Gen 4.5模型在视频生成方面表现出色,57.1%的人无法分辨生成视频的真实性。
  • 该模型在镜头控制、叙事能力和角色一致性上有显著提升,生成的视频更接近真实。
  • 模型能够承载更长时序的内容结构,视频的完整度和长度大大提升。
  • 镜头的景别、角度、运动轨迹以及切换节奏更可控,输出效果接近真实摄影语言。
  • 多个镜头之间的情节逻辑性更强,叙事表达比上个版本更到位。
  • 图像参考和模型内部一致性优化使得角色在不同镜头中的跨帧效果更稳定。
  • Runway进行了一项调查,只有57%的人能成功识别出AI生成的视频。
  • 视频模型的真实度和物理一致性大幅增强,声画同步能力提升。
  • 局部编辑能力成为重要趋势,越来越多模型支持单独局部面区域,无需重新生成整段视频。
  • 视频生成方式更加多元,从图生视频到音频生视频,创作路径变得更加灵活。
  • 当前主流视频模型越来越接近可商业化应用,具备普适性的能力。
➡️

继续阅读