本研究解决了传统三维体素融合算法在可视化真实性方面的不足,提出了一种名为 GSFusion 的新方法,通过将高斯点云与体素映射结合,显著提高计算效率和质量。该方法利用四叉树数据结构减少初始化的高斯点数量,从而实时生成高质量的紧凑三维高斯地图和体素地图,展现出较低的伪影和良好的结构一致性。
MonoScene提出了一种3D语义场景完成(SSC)框架,通过单个单眼RGB图像推断出场景的密集几何和语义,并引入3D上下文关系先验以实现空间-语义一致性。实验结果显示,该框架在所有指标和数据集上均优于先前的研究,并能够虚构出超出镜头视野的逼真场景。
该研究提出了一种通过体积渲染和深度融合先验进行多视角RGBD图像学习的方法,以准确进行3D重建。该方法通过TSDF融合深度图像解决深度不完整和被遮挡结构的问题,并引入注意机制超越了最新的神经隐式方法。
该文介绍了一种使用TSDF方法从RGB图像中实现三维重建和语义分割的方法,并在Scannet数据集上得到了超过基准结果的评估。
完成下面两步后,将自动完成登录并继续当前操作。