字节跳动的PixelDance和Seaweed视频生成模型于11月15日在即梦AI上线,用户可免费体验,支持网页版和手机APP,适合创作者和艺术家,提供高质量视频生成及多种编辑功能。
字节跳动于11月15日推出了视频生成模型PixelDance和Seaweed,用户可免费使用。这两款模型支持网页版和手机APP,适合创作者和企业,能够生成高质量视频,提升创作表现力。即梦AI平台还提供多种编辑功能,助力用户创作。
字节跳动在深圳的巡展上发布了多模态大模型,包括视频生成、音乐生成和同声传译。豆包视频模型通过DiT架构实现动态生成和多镜头切换,支持多种风格。音乐模型可通过文本或图片生成音乐,并支持风格转换。同声传译模型实现实时翻译。火山引擎还升级了现有模型,提高了效率和性能,降低了成本。
今年,Runway发布了Gen-1和Gen-2模型,提升了视频生成的一致性,但牺牲了动态性。Meta发布了Emu Video,动态性有所提高。Stability.ai发布了SVD模型,效果与Gen-2相当,但缺乏动态性。PixelDance是视频生成领域的重要研究成果,可以生成高度一致且丰富动态的视频。PixelDance有两种生成模式,基础模式和高级魔法模式。它可以根据用户提供的图片和文本生成各种风格的视频。PixelDance的生成效果出色,不依赖复杂的数据集和大规模的模型训练。PixelDance的论文提出了基于文本和图片指导的视频生成方法。作者正在积极迭代模型效果,未来2-3个月将发布试用模型。
完成下面两步后,将自动完成登录并继续当前操作。