基于 GAN 和扩散的 GD^2-NeRF:一次性通用的神经辐射场生成细节补偿
原文中文,约200字,阅读约需1分钟。发表于: 。本研究着重于一次全新视图合成(O-NVS)任务,目标是在每个场景只给定一张参考图像的情况下合成逼真的新视图。提出了一种使用 GAN 和扩散的生成性细节补偿框架 GD^2-NeRF,该框架在推理时不需要微调,并且具有生动逼真的细节。
SSDNeRF是一种新方法,使用Diffusion Model学习神经辐射场的可推广先验,实现3D重建和先验学习,具有鲁棒性结果。
本研究着重于一次全新视图合成(O-NVS)任务,目标是在每个场景只给定一张参考图像的情况下合成逼真的新视图。提出了一种使用 GAN 和扩散的生成性细节补偿框架 GD^2-NeRF,该框架在推理时不需要微调,并且具有生动逼真的细节。
SSDNeRF是一种新方法,使用Diffusion Model学习神经辐射场的可推广先验,实现3D重建和先验学习,具有鲁棒性结果。