Real3D:用真实世界图像扩展大型重建模型

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

GS-LRM是一个可扩展的大型重建模型,能够在单个A100 GPU上从2-4个稀疏图像中预测高质量的3D高斯原语,并在0.23秒内完成。该模型采用了基于transformer的简单架构,能够处理不同尺度和复杂性的场景。在Objaverse和RealEstate10K上的训练结果表明,GS-LRM优于现有方法。

🎯

关键要点

  • GS-LRM是一个可扩展的大型重建模型,能够在单个A100 GPU上从2-4个稀疏图像中预测高质量的3D高斯原语。
  • 该模型在0.23秒内完成预测,采用了基于transformer的简单架构。
  • GS-LRM通过预测每像素的高斯分布,能够处理不同尺度和复杂性的场景。
  • 模型在Objaverse和RealEstate10K上的训练结果表明,GS-LRM优于现有的最先进方法。
  • GS-LRM适用于对象和场景捕捉,并在下游3D生成任务中有应用。
➡️

继续阅读