使用大型重建模型进行单视角三维人体数字化

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

我们提出了一个大规模重建模型(LRM),可以在5秒内从单个输入图像预测对象的3D模型。该模型采用了高度可扩展的transformer架构,并在大约100万个对象的多视图数据上进行了训练。模型通用性强,生成高质量的3D重建结果。

🎯

关键要点

  • 提出了一个大规模重建模型 (LRM),能够在5秒内从单个输入图像预测3D模型。
  • LRM采用高度可扩展的基于transformer的架构,具有5亿个可学习参数。
  • 模型能够直接从输入图像预测神经辐射场(NeRF)。
  • 在包含约100万个对象的多视图数据上进行端到端训练,包括合成渲染和真实采集数据。
  • 模型具有强通用性,能够生成高质量的3D重建结果,适用于各种测试输入。
  • 提供视频演示和可交互的3D网格,链接在文中。
➡️

继续阅读