Real3D:用真实世界图像扩展大型重建模型
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
GS-LRM是一个可扩展的大型重建模型,能够在单个A100 GPU上从2-4个稀疏图像中预测高质量的3D高斯原语,并在0.23秒内完成。该模型采用了基于transformer的简单架构,能够处理不同尺度和复杂性的场景。在Objaverse和RealEstate10K上的训练结果表明,GS-LRM优于现有方法。
🎯
关键要点
- GS-LRM是一个可扩展的大型重建模型,能够在单个A100 GPU上从2-4个稀疏图像中预测高质量的3D高斯原语。
- 该模型在0.23秒内完成预测,采用了基于transformer的简单架构。
- GS-LRM通过预测每像素的高斯分布,能够处理不同尺度和复杂性的场景。
- 模型在Objaverse和RealEstate10K上的训练结果表明,GS-LRM优于现有的最先进方法。
- GS-LRM适用于对象和场景捕捉,并在下游3D生成任务中有应用。
➡️