本研究提出了一种基于StyleGAN的面部图像姿势和表情迁移方法。该方法利用两个编码器和映射网络,将源图像的姿势和表情无缝转移到目标身份上,且无需人工标注,具有接近实时的性能。
本研究解决了从头训练现代生成模型所需的高昂成本和计算资源的缺口。提出的StyleAutoEncoder模块,可以与预训练的生成模型结合使用,以高效操控图像属性。研究表明,该方法不仅性能优越,且在设计神经网络时具有更大的灵活性和简易性,具有广泛的应用潜力。
该研究使用卷积神经网络进行迁移学习,自动检测糖尿病视网膜病变。通过改进现有方法,使用U-Net神经网络架构进行分割,该模型在视网膜病理评估中表现出潜力。该研究有望改善糖尿病视网膜病变患者的预后,并对医学图像分析领域做出重要贡献。
该论文提出了一种音频驱动的说话角色视频编辑方法,通过声音到关键点模块和基于关键点的编辑模块来填补语音和面部动作之间的鸿沟,生成高视觉质量的高分辨率视频。
本文介绍了一种利用预训练的StyleGAN生成电影画面的方法,通过GAN反演和多尺度深层特征变形技术,生成高分辨率和循环动画效果的画面。通过用户研究和与其他方法的比较,展示了该方法的卓越性能。
我们提出了一种新颖的通道修剪方法,通过评估通道对潜在向量扰动的敏感性,增强了压缩模型中样本的多样性。该方法在各种数据集中显著提升了样本的多样性,并且在 FID 得分方面超过了最先进的方法,且只需一半的训练迭代次数。
提出了一种适用于极小标注数据集的自我监督方法SS-StyleGAN,通过在StyleGAN体系结构中集成一个学习嵌入到StyleGAN潜空间的编码器,利用学习的潜空间智能选择代表性数据进行标注以提高分类性能。在50个甚至10个大小的标注数据集上取得强大的分类结果,特别适用于COVID-19和肝肿瘤病理鉴定任务。
利用StyleGAN的潜在空间进行图像反转和修复的研究显示出显著的改进。通过混合网络同时利用反转的潜在编码和随机样本的StyleGAN映射特征,生成的数据能够鼓励修复部分与未被擦除部分的颜色一致,并提供了定量指标和视觉比较上的显著改进。
大型文本到图像模型生成图像的能力引起变革,但无法捕捉特定视觉概念。本文提出数据为中心的方法,解决文本连贯性和身份保留问题,提高图像质量,生成符合输入文本提示的多样样本。实验证明该方法在图像质量、身份保留和多样性方面取得平衡。
本文研究了通过层次语义约束器(HSR)改善StyleGANs生成图像的真实性和自然性,并提出了Attribute Linearity Score(ALS)来衡量属性变量的线性度。实验结果显示,HSR可以约束生成器学习到的分层表征,提高样式编辑后图像的自然性和真实性,同时提高属性变量的线性度。
该研究提出了一种新的特征重新缩放方法来解决 StyleGAN 图像合成中的 Feature Proliferation 现象,该方法在更低级的特征空间中识别和调节风险特征,相比于截断技巧而言更精细且保留了更多有用的图像特征。实验证明了该方法的有效性。
该论文提出了一种使用StyleGAN的表达潜在空间实现面部卡通化的方法,同时保留原始身份并适应各种姿势。通过引入编码器捕捉姿势和身份信息,并生成对应的StyleGAN潜在空间中的嵌入,然后通过预训练的生成器得到卡通化输出。该方法不需要经过精细调整的StyleGAN模型,能够更好地保留身份信息。
该文介绍了一种通过设置不同类型的基本卡和机读卡,以及证件单位和办事处,实现无法更新已有证件文件申请人开户要求的方法。
StyleGAN V1@AikenHong 2020 10.8 《A Style-Based Generator Architecture for Generative Adversarial Networks》 Related Work:继承的文献工作:...
完成下面两步后,将自动完成登录并继续当前操作。