3D-SceneDreamer: 文本驱动的 3D 一致场景生成
💡
原文中文,约500字,阅读约需1分钟。
📝
内容提要
通过引入神经光辐射场(NeRFs),文本到三维生成方法取得了进展。最新工作通过多视角数据微调二维扩散模型,强制执行细粒度的视图一致性。该方法有效减轻了浮动点和完全空白空间的问题。在T$^3$Bench数据集上,该方法达到了最先进的性能。
🎯
关键要点
- 引入神经光辐射场(NeRFs)使文本到三维生成方法取得进展。
- 许多先进方法使用得分蒸馏采样(SDS)优化NeRF表示。
- 预训练的二维扩散模型提供的监督信号仅依赖于文本提示,缺乏多视角一致性。
- 通过多视角数据微调二维扩散模型,引入跨视角一致性。
- 将多视角图像条件纳入NeRF优化的监督信号中,强制执行细粒度的视图一致性。
- 提出的方法有效减轻了浮动点和完全空白空间的问题。
- 在T$^3$Bench数据集上,该方法达到了最先进的性能。
- 将公开发布代码。
➡️