Midjourney首款V1视频生成AI模型发布

Midjourney首款V1视频生成AI模型发布

💡 原文英文,约600词,阅读约需2分钟。
📝

内容提要

Midjourney推出了首个视频生成V1模型,允许用户将静态图像转化为5秒视频,支持自动和手动动画设置,适用于Midjourney生成的图像及外部上传图像。尽管功能较简单,但在创意社区中受到热烈欢迎。Midjourney在面临法律挑战的情况下,仍致力于技术扩展,推动实时开放世界模拟的实现。

🎯

关键要点

  • Midjourney推出了首个视频生成V1模型,允许用户将静态图像转化为5秒视频。

  • V1模型支持自动和手动动画设置,适用于Midjourney生成的图像及外部上传图像。

  • 用户可以通过拖动图像到提示栏并标记为起始帧来进行动画。

  • V1提供低运动和高运动两种设置,适用于不同类型的场景。

  • 与其他AI视频生成工具相比,V1更注重静态图像的动画,而非复杂的编辑功能。

  • 创意社区对V1模型的推出反响热烈,用户称赞其视觉一致性和艺术风格。

  • Midjourney计划继续发展其视频能力,目标是实现实时开放世界模拟。

  • V1模型目前仅可通过网页使用,公司正在密切监控使用情况以满足需求。

  • 该发布是在公司面临法律挑战的背景下进行的,包括迪士尼和环球影业的版权诉讼。

延伸问答

Midjourney的V1视频生成模型有什么主要功能?

V1模型允许用户将静态图像转化为5秒视频,支持自动和手动动画设置。

用户如何使用V1模型进行动画制作?

用户可以将图像拖入提示栏并标记为起始帧,然后应用运动提示进行动画。

V1模型与其他AI视频生成工具相比有什么不同?

V1更注重静态图像的动画,而非复杂的编辑功能,输出较简单的视频。

V1模型的运动设置有哪些?

V1提供低运动和高运动两种设置,适用于不同类型的场景。

创意社区对V1模型的反响如何?

创意社区对V1模型反响热烈,用户称赞其视觉一致性和艺术风格。

Midjourney未来对视频生成技术有什么计划?

Midjourney计划继续发展视频能力,目标是实现实时开放世界模拟。

➡️

继续阅读