HyperAI超神经推出了阿里巴巴通义万相实验室的音频驱动视频生成模型Wan2.2-S2V-14B。该模型仅需一张图片和一段音频即可生成高质量数字人视频,并支持多种图片类型。研究团队通过优化训练数据集,显著提升了生成内容的真实性。用户可在HyperAI官网体验该模型。
阿里巴巴的通义万相实验室开源了AI视频生成模型Wan2.2,支持文生视频和图生视频,参数量达到27B。该模型提升了视频生成的质量和效率,并可在消费级显卡上高效运行,具备电影级美学控制系统,推动AI应用生态的发展。
完成下面两步后,将自动完成登录并继续当前操作。