使用大型重建模型进行单视角三维人体数字化
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
我们提出了一个大规模重建模型(LRM),可以在5秒内从单个输入图像预测对象的3D模型。该模型采用了高度可扩展的transformer架构,并在大约100万个对象的多视图数据上进行了训练。模型通用性强,生成高质量的3D重建结果。
🎯
关键要点
- 提出了一个大规模重建模型 (LRM),能够在5秒内从单个输入图像预测3D模型。
- LRM采用高度可扩展的基于transformer的架构,具有5亿个可学习参数。
- 模型能够直接从输入图像预测神经辐射场(NeRF)。
- 在包含约100万个对象的多视图数据上进行端到端训练,包括合成渲染和真实采集数据。
- 模型具有强通用性,能够生成高质量的3D重建结果,适用于各种测试输入。
- 提供视频演示和可交互的3D网格,链接在文中。
➡️