MCM:多情景多条件动作合成框架
💡
原文中文,约500字,阅读约需2分钟。
📝
内容提要
本文介绍了一种多条件人体动作合成任务的方法,通过结合多样的条件输入,如文本、音乐、语音等,使任务适应于多种场景。实验结果表明,该方法在文本到动作任务中取得了最先进的结果,并在音乐到舞蹈任务中也表现出竞争性的结果。定性评估显示,该方法简化了原本设计用于文本到动作任务的方法在其他领域的适应性,并实现了有效的多条件模态控制。
🎯
关键要点
- 多条件人体动作合成任务结合多样的条件输入,如文本、音乐、语音等。
- 引入MCM框架,与DDPM类扩散模型结合,实现多条件信息输入。
- 采用基于Transformer的扩散模型MWNet,捕捉运动序列中的空间复杂性和关节相关性。
- 定量比较显示,方法在文本到动作任务中取得SOTA结果,在音乐到舞蹈任务中表现竞争性。
- 定性评估表明,MCM简化了文本到动作方法在其他领域的适应性,消除网络重构需求。
- 实现有效的多条件模态控制,达到'训练一次,生成动作无限'的效果。
🏷️
标签
➡️