我们提出了GS-LRM,一种可扩展的大型重建模型,可以在单个A100 GPU上快速从少量稀疏图像中预测高质量的3D高斯原语。模型采用transformer架构,通过多视图图像解码每像素的高斯参数,实现可微渲染。GS-LRM在Objaverse和RealEstate10K上表现优于现有方法,并可用于3D生成任务。
GS-LRM是一个可扩展的大型重建模型,使用单个A100 GPU从2-4个稀疏图像中预测高质量的3D高斯原语,并在0.23秒内完成。该模型采用基于transformer的架构,适用于不同尺度和复杂性的场景。GS-LRM在对象和场景捕捉方面优于现有方法,并在下游3D生成任务中展示了应用。
GS-LRM是一个可扩展的大型重建模型,能够在单个A100 GPU上从2-4个稀疏图像中预测高质量的3D高斯原语,并在0.23秒内完成。该模型采用了基于transformer的简单架构,能够处理不同尺度和复杂性的场景。在Objaverse和RealEstate10K上的训练结果表明,GS-LRM优于现有方法。
GS-LRM是一个可扩展的大型重建模型,能够在单个A100 GPU上从2-4个稀疏图像中预测高质量的3D高斯原语,并在0.23秒内完成。该模型采用了基于transformer的简单架构,能够处理不同尺度和复杂性的场景。在Objaverse和RealEstate10K上进行训练后,该模型在对象和场景捕捉方面表现更好。
完成下面两步后,将自动完成登录并继续当前操作。