基于 GAN 和扩散的 GD^2-NeRF:一次性通用的神经辐射场生成细节补偿 本研究着重于一次全新视图合成(O-NVS)任务,目标是在每个场景只给定一张参考图像的情况下合成逼真的新视图。提出了一种使用 GAN 和扩散的生成性细节补偿框架 GD^2-NeRF,该框架在推理时不需要微调,并且具有生动逼真的细节。 SSDNeRF是一种新方法,使用Diffusion Model学习神经辐射场的可推广先验,实现3D重建和先验学习,具有鲁棒性结果。 3D重建 Diffusion Model SSDNeRF gan 先验学习 神经辐射场