长序列大重建模型用于广覆盖高斯点云

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

我们提出了GS-LRM,一种可扩展的大型重建模型,可以在单个A100 GPU上快速从少量稀疏图像中预测高质量的3D高斯原语。模型采用transformer架构,通过多视图图像解码每像素的高斯参数,实现可微渲染。GS-LRM在Objaverse和RealEstate10K上表现优于现有方法,并可用于3D生成任务。

🎯

关键要点

  • 提出了GS-LRM,一个可扩展的大型重建模型。

  • GS-LRM可以在单个A100 GPU上从2-4个稀疏图像中快速预测高质量的3D高斯原语,完成时间为0.23秒。

  • 模型采用基于transformer的架构,通过分块处理输入图像,解码每像素的高斯参数以实现可微渲染。

  • GS-LRM能够处理不同尺度和复杂性的场景,超越了仅能重建对象的低秩模型。

  • 在Objaverse和RealEstate10K上训练后,GS-LRM在对象和场景捕捉方面表现优于现有方法。

  • 展示了GS-LRM在下游3D生成任务中的应用。

➡️

继续阅读