本研究提出了一种新颖的视角合成方法ViewExtrapolator,利用稳定视频扩散(SVD)技术提升视角外推的质量,显著增强渲染的清晰度和真实感,并在多种3D渲染中表现优异。
研究人员修改密度场以实现薄结构的重建,采用离散不透明度网格表示和多条光线的像素投射来抗锯齿。通过基于融合的网格化策略,实现了紧凑网格和高质量的视角合成,能够在移动设备上实时渲染。
pixelNeRF是一种学习框架,可以通过少量图像预测神经场景表示。与现有方法相比,该框架无需每个场景优化,可实现视角合成和三维重建。实验证明,该模型在形状、类别和实景方面优于现有技术。
该文介绍了一种在移动设备上实时进行新视角图像合成的方法,使用光场平板表示对于学习神经光场是一种有效的表示方法,提供了比以前的光场方法更高的渲染质量,并在渲染质量和速度之间实现了显著的改进平衡。
PixelNeRF是一种学习框架,可以在仅有一张或几张输入图像的条件下预测连续的神经场景表示,实现视角合成和单幅图像的三维重建。该框架在形状、类别和实景等方面都优于现有技术。
该研究提出了一种新的深度场景表示方法——神经反射场,使用全连接的神经网络编码场景中任意3D点的体密度、法线和反射属性,并将其与可微分的物理模型相结合,实现高质量的视角合成和照明重建。
完成下面两步后,将自动完成登录并继续当前操作。