北京大学施柏鑫团队与OpenBayes合作推出PanoWan框架,通过文本引导生成全景视频,解决了生成过程中的畸变和不连贯问题,采用纬度感知采样和边界填充技术。同时,团队构建了包含1.3万个视频片段的PanoVid数据集,推动VR内容创作的发展。
机器之心数据服务现已上线,提供高效稳定的数据获取服务,帮助用户轻松获取所需数据。
该研究探讨了无记忆源模型的速率失真感知权衡,并导出了相关特性。研究结果表明,在某些情况下,添加噪声机制可以实现最佳表示。此外,研究还特化到高斯源的情况,并提出了一种水填充类型的解决方案。
本研究提出了一种导向畸变感知的Gabor融合框架(PGFuse),用于解决单目360图像深度估计中的畸变和广视场带来的挑战。实验结果表明,PGFuse在处理360度深度估计任务时优于现有的主流方法。
本研究提出了一种新颖的虚拟现实模拟工具,用于模拟真实光学方法,并在实验中提供高度的控制能力。该工具弥合了新光学方法研究与应用研究之间的差距,为视觉科学家提供了一个稳健、逼真且快速的研究环境。
本文提出了一种新的方法来建模扩散磁共振成像(dMRI)数据集,利用人脑结构相干性,仅使用单个被试的数据。使用神经网络参数化球面谐波级数(NeSH)来表示单个被试的dMRI信号,重建的信号显示出更具结构连贯性的数据表示。消除了梯度图像中的噪声,并且纤维定向分布函数沿纤维束的方向呈平滑变化。可以使用单个模型架构计算平均扩散度、分数各向异性和总视觉纤维密度。演示了在角度和空域中进行上采样可以实现与现有方法相当或更好的重建。
通过利用潜在扩散模型的失真先验信息,提出了一种基于深度学习的遥感图像压缩方法,该方法利用生成的先验信息,通过增强网络实现对图像的质量提升。
本文介绍了一种改进照片风格转换算法的方法,通过应用于真实图像并利用合成数据提高合成图像到真实图像的适应性。实验证明该方法在语义分割和物体检测方面超越了当前的基于GAN的图像翻译方法,并通过距离分析方法显著缩小了合成数据与真实数据之间的距离。
使用通用的扩散模型,联合建模室内和室外场景,通过处理尺度模糊和合成视野,减少相对误差。
本文提出了一种新框架,通过反向扭曲操作直接估计失真流并修正滚动快门(RS)图像,通过全局关联流注意机制初步估计初始失真流和全局快门特征,并通过粗糙到精细的解码器层进行进一步优化,实验证实了该方法的有效性,在各个基准测试中优于现有方法同时保持高效性。
本文提出了一种方法来塑造鱼眼特定的表示空间,以反映数据模态中的畸变和语义上下文之间的相互作用。该方法在目标检测任务中应用,并实现了1.1%的性能提升,超过了其他表征学习方法0.6%的性能。
本文提出了一种新的无源无监督域自适应方法,用于针孔图像到全景图像的语义分割。该方法利用了割裂等距投影、固定视场角的损失和全景原型自适应模块(PPAM),以及跨双重注意模块(CDAM),通过提取并转移知识实现域间适应。实验证明,该方法在合成和真实世界基准测试中表现优于现有的SFUDA方法。
本文提出了一种方法来塑造鱼眼特定的空间表示,以反映数据模态中的畸变和语义上下文之间的相互作用。该方法通过学习畸变和语义上下文之间的相互作用,应用于目标检测任务,实现了1.1%的性能提升,并超过了其他表征学习方法0.6%的性能。
通过嵌入局部失真特征和使用更大的预训练模型,该方法在IQA数据集上取得了最先进的性能,证明IQA能从大规模预训练模型中受益。
本文介绍了一种名为HRDA的多分辨率训练方法,通过结合小的高分辨率裁剪和大的低分辨率裁剪,以及学习到的比例关注,来提高语义分割的UDA性能。该方法能够保留细节并捕获上下文信息,从而在GTA到Cityscapes和Synthia到Cityscapes的mIoU上分别达到73.8和65.8。
完成下面两步后,将自动完成登录并继续当前操作。