Animate3D:使用多视角视频扩散动画任何 3D 模型
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本文介绍了一种名为4Diffusion的新型4D生成管道,旨在从单目视频中生成空间时间一致的4D内容。通过将可学习的运动模块与冻结的3D感知扩散模型结合,设计了一个统一扩散模型,以捕捉多视图空间时间相关性。实验证明,该方法性能更好。
🎯
关键要点
- 提出了一种新型4D生成管道,名为4Diffusion。
- 4Diffusion旨在从单目视频中生成空间时间一致的4D内容。
- 结合可学习的运动模块与冻结的3D感知扩散模型,设计了统一扩散模型。
- 该模型能够捕捉多视图空间时间相关性。
- 扩散模型在精心策划的数据集上训练,获得合理的时间一致性。
- 保留了3D感知扩散模型的泛化性和空间一致性。
- 提出了基于多视图视频扩散模型的4D感知得分蒸馏采样损失。
- 优化由动态NeRF参数化的4D表示,消除多个扩散模型引起的差异。
- 设计了锚点损失以增强外观细节并促进动态NeRF的学习。
- 广泛的定性和定量实验证明该方法性能优于之前的方法。
➡️