本研究提出Concat-ID框架,旨在解决身份保持的视频生成问题。该框架利用变分自编码器提取图像特征,并结合视频潜变量,实现连贯的视频生成。研究表明,Concat-ID在单一和多身份生成中表现优越,具有广泛的应用潜力。
本文提出了一种基于扩散模型的个性化人脸修复方法FaceMe,有效解决了盲人脸修复中的身份保持问题。实验结果表明,FaceMe在恢复高质量人脸图像时能够有效保持身份一致性,展现出良好的应用潜力。
该研究提出了一种混合训练框架,结合静态图像与视频数据,解决了视频人脸交换在时间一致性和复杂场景处理中的不足,显著提高了身份保持和视觉质量。
本研究提出了一种新框架,通过负对数似然蒸馏提升三维头部风格化的身份保持和质量,显著增强输出的多样性和个性。
该研究提出了一种保持身份个性化的图像生成方法,通过无限-ID将身份信息与语义解耦合。该方法通过增强车间训练,结合图像交叉注意模块和AdaIN-mean操作的特征交互机制,提高了身份的保真度和语义一致性,并方便对生成图像风格的控制。实验结果证明了该方法的优越性能。
研究人员提出了一种名为VLOGGER的人体视频生成方法,通过扩展最新的扩散生成模型,在人体到3D动作扩散模型和扩散式架构两方面加入空间和时间控制,实现了高质量视频生成的支持。使用新的更大规模的数据集进行训练和评估,VLOGGER在图像质量、身份保持、时间一致性和生成上半身手势等方面优于现有方法,并展示了在视频编辑和个性化方面的应用。
本文提出了一种全面数据驱动的方法,用于合成虹膜图像,能够表示不同瞳孔尺寸和非现有身份的虹膜图像,并在改变瞳孔尺寸时保持身份。与现有的虹膜变形模型相比,该方法在相似性和身份保持方面表现更好。
完成下面两步后,将自动完成登录并继续当前操作。