视频扩散模型新突破!清华腾讯联合实现高保真3D生成,告别多视图依赖

从一张图像出发,基于自定义的相机轨迹探索三维场景

清华与腾讯联合研发的Scene Splatter模型基于视频扩散技术,从单张图像生成高保真3D场景,解决了几何扭曲和一致性问题。该模型通过动量引导生成多视角视频,显著提升三维场景重建效果。

原文中文,约2000字,阅读约需5分钟。发表于:
阅读原文