在场景中根据文本控制生成人类互动动作
原文中文,约200字,阅读约需1分钟。发表于: 。基于去噪扩散模型,我们提出了一种用于文本控制的场景感知运动生成方法。该方法通过预训练场景不可知的文本到运动扩散模型,并利用包含详细场景信息的增强数据对模型进行微调,产生逼真多样的人 - 场景互动。
本文提出了一种使用多角度注意机制的两阶段方法,用于基于文本描述生成3D人体动作。实验证明该方法在定性和定量评估方面优于现有技术,并实现了精细合成和动作生成。
基于去噪扩散模型,我们提出了一种用于文本控制的场景感知运动生成方法。该方法通过预训练场景不可知的文本到运动扩散模型,并利用包含详细场景信息的增强数据对模型进行微调,产生逼真多样的人 - 场景互动。
本文提出了一种使用多角度注意机制的两阶段方法,用于基于文本描述生成3D人体动作。实验证明该方法在定性和定量评估方面优于现有技术,并实现了精细合成和动作生成。