长序列大重建模型用于广覆盖高斯点云
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
我们提出了GS-LRM,一种可扩展的大型重建模型,可以在单个A100 GPU上快速从少量稀疏图像中预测高质量的3D高斯原语。模型采用transformer架构,通过多视图图像解码每像素的高斯参数,实现可微渲染。GS-LRM在Objaverse和RealEstate10K上表现优于现有方法,并可用于3D生成任务。
🎯
关键要点
-
提出了GS-LRM,一个可扩展的大型重建模型。
-
GS-LRM可以在单个A100 GPU上从2-4个稀疏图像中快速预测高质量的3D高斯原语,完成时间为0.23秒。
-
模型采用基于transformer的架构,通过分块处理输入图像,解码每像素的高斯参数以实现可微渲染。
-
GS-LRM能够处理不同尺度和复杂性的场景,超越了仅能重建对象的低秩模型。
-
在Objaverse和RealEstate10K上训练后,GS-LRM在对象和场景捕捉方面表现优于现有方法。
-
展示了GS-LRM在下游3D生成任务中的应用。
➡️