本研究提出MagicComp,一种无需训练的双阶段细化方法,旨在改善文本到视频生成中的属性绑定、空间关系和复杂动作交互问题。实验结果表明,MagicComp在多个基准测试中超越现有方法,展示了其在复杂提示和轨迹可控视频生成中的潜力。
完成下面两步后,将自动完成登录并继续当前操作。