本文提出了一种针对大型场景重建的遮挡感知高斯点云技术,通过位置和可视性聚类训练相机,提升了重建质量和区域间相关性。同时,新的区域渲染技术加速了渲染过程,实验结果表明该方法在重建效果和渲染速度上优于现有技术。
本研究提出了GP-GS框架,解决了3D高斯点云在场景重建中的质量下降问题。通过多输出高斯过程模型,实现了稀疏SfM点云的密集化,显著提升了重建性能。
本研究提出了DrivingRecon模型,旨在解决现有自动驾驶场景重建方法在实时性和效率上的不足。该模型能够从视频中预测4D高斯表示,显著提升场景重建质量和新视角合成,适用于模型预训练、车辆适应和场景编辑等领域。
中科院自动化所团队提出的FreeVS新视角合成方法,能够在无需重建场景的情况下,生成任意车辆行驶轨迹下的高质量视频,显著提升效率和质量。该方法通过稀疏点云投影恢复相机成像,支持多种场景中的车辆运动模拟和场景编辑。
本研究提出了DimensionX框架,利用可控视频扩散技术从单张图像生成真实感的3D和4D场景。该方法在可控视频生成和场景重建方面优于传统技术,展现出重要的应用潜力。
极佳科技与多家机构合作推出DriveDreamer4D,这是首个利用世界模型提升自动驾驶4D场景重建的算法。该技术显著改善了多种重建算法的效果,用户偏好投票超过80%。DriveDreamer4D通过生成新轨迹视频,增强了动态场景的闭环仿真能力,提高了车辆和车道线的渲染质量与时空一致性。
本研究提出了一种加权渲染方法,解决了3D高斯点云渲染中的复杂排序问题,显著提升了渲染性能,消除了“弹跳”伪影,并在移动设备GPU上实现了平均1.23倍的加速,为3D场景重建提供了高效方案。
本文提出了一种新方法MCGS,通过3D高斯散点框架解决稀视图下的多视图一致性问题,显著提高了场景重建效率和渲染速度,并减少了内存使用。实验结果表明,该方法在稀视输入情况下表现优异。
本文探讨了一种高质量实时1080p分辨率的新视图合成技术,提出了3D高斯函数表示、优化参数和可见性感知渲染算法。通过减少高斯点数量和存储空间,实现高性能实时渲染。此外,介绍了基于神经辐射场的ThermoNeRF方法,能够同时渲染RGB和热像视图,提升场景重建质量。研究还提出了因式化三维高斯粒子点描方法,显著降低存储需求并保持图像质量。
本文提出了一种利用手持视频数据实现高质量场景重建的方法,通过建模物理图像形成过程和视觉惯性航位推测,优化相机姿态,减轻相机运动。实验证明该方法在减轻相机运动方面具有出色性能。
该方法通过学习隐式体积表示来改善场景表示和重建,利用学习的视角相关特征建模体积函数为球谐引导的各向异性特征,并通过参数化多层感知机提高渲染质量。实验证明该方法在基于NeRF的框架中能够提升渲染性能。
该研究使用3D神经场联合表示几何、颜色和语义,通过手持RGB-D传感器实时重建场景,实现无需训练数据的点云场景的稠密标注。该模型为多层感知器,能够在实时更新和可视化场景模型的同时比常规方法更加高效地标注。
本文提出了一种场景重建的方法,分为补全和2D到3D场景转换两个步骤。通过利用大型语言模型补全场景彩色图像中的缺失区域,然后预测补全图像的法线并解决缺失深度值,将补全图像转换为3D。该方法适应深度分布和尺度的变化,具有泛化能力,优于多个对比基线的表现。
完成下面两步后,将自动完成登录并继续当前操作。