生成对抗网络(GANs)在生成逼真图像方面表现出令人印象深刻的能力。然而,现有模型在姿势和物体位置控制方面存在不足。提出了一种新模型,称为生成对抗性What-Where网络,可以根据内容和位置描述合成图像。在Caltech-UCSD Birds数据集上展示了高质量的128 x 128图像合成,具有对鸟类边界和组件的控制。初步结果还显示了在MPII Human Pose数据集上基于文本和位置的人体动作图像合成。
该研究提出了一种新的人体三平面表示方法TriHuman,实现了实时性能、姿势控制和逼真渲染质量。通过解决全局点映射问题和考虑动态外观和几何变化,该方法在人体建模和运行时间性能方面有明显的质量提升。
完成下面两步后,将自动完成登录并继续当前操作。