基于 NeRF 的可微电影化的电影行为转移
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文提出了一种可编辑的逼真的自由视角视频生成方法,使用16个稀疏摄像头将动态场景表示为连续函数,并采用新的神经表示方法进行操作。通过场景解析、连续变形和体积渲染等技术,实现了高质量的视频生成。
🎯
关键要点
- 提出了一种可编辑的逼真的自由视角视频生成方法。
- 使用16个稀疏摄像头表示大规模动态场景中的动态实体为连续函数。
- 采用新的分层神经表示方法支持感知和逼真操作。
- 使用场景解析4D标签地图追踪和连续变形模块隐式分离时间运动。
- 采用面向对象的体积渲染方案再组装所有神经层。
- 引入新颖的分层损失和运动感知射线采样策略。
- 实现了大规模动态场景的高效训练,支持各种编辑功能。
- 展示了该方法生成高质量的可编辑自由视角视频。
➡️