本研究探讨了RGB-D数据集中原始深度图的低质量结构问题,提出了一种新方法以提高深度恢复的泛化能力。通过增强结构不对齐多样性和引入结构不确定性模块,实验结果表明该方法在多个数据集上表现出良好的准确性和泛化能力。
本研究提出了一种DenseFormer方法,通过条件扩散模型从稀疏深度图和RGB图像生成密集深度图,显著提高了深度图预测的精度,超越了传统的深度补全方法。
VGGT(视觉几何基础变换器)是牛津大学与Meta AI联合研发的3D视觉模型,能够快速推理相机参数和深度图,性能超越传统方法。该模型采用纯前馈设计,显著提升推理速度和精度,展现出强大的泛化能力,标志着3D视觉领域的重要突破。
麦吉尔大学等机构开发的RNAmigos2是一种基于结构的RNA虚拟筛选方法,其速度比传统对接快一万倍,能够有效筛选化合物。这一方法在RNA药物发现中尤为重要,特别是针对ncRNA和肿瘤靶点,研究成果已公开,推动了RNA药物的开发。
本研究提出了一种结合大型语言模型与动态图表示的自主图扩展框架,克服了传统知识图谱的局限性。该系统通过迭代生成新概念与关系,构建可持续的知识网络,展示了在材料设计等领域的应用潜力。
本文提出了SharpDepth,一种新颖的单目深度估计方法,解决了传统模型生成深度图过于平滑的问题。SharpDepth在深度估计基准上表现优异,兼顾度量准确性与边界保留,展现出高质量的深度感知潜力。
本研究提出几何解耦网络(GDNet),有效解决压缩深度源中的高质量深度图恢复问题,显著提升几何一致性和细节恢复能力,荣获ECCV 2024一等奖。
本研究解决了深度图卷积网络在稳定性与泛化能力方面的理论理解缺口。通过系统性阐述关键因素对深度GCN稳定性及泛化能力的影响,本文提供了严谨的界限特征。研究结果可助力于开发更可靠且表现更好的模型。
本研究提出了一种新方法,通过同时学习多个深度图,提高单一X射线图像的3D重建精度。结果显示,表面重建误差从4.78毫米降至1.96毫米,显著提升了准确性和效率,展示了临床应用潜力。
本研究提出了一种新的无训练零-shot深度完成方法SteeredMarigold,通过利用稀疏深度点作为条件,引导去噪扩散概率模型,生成度量稠密深度地图,提升深度图不完整性的鲁棒性。
本研究介绍了一种栅格化方法,用于渲染通用3D高斯飞溅的深度图和表面法线图,提高形状重建准确性并保持计算效率。该方法在DTU数据集上达到与NeuraLangelo相当的Chamfer距离误差,训练和渲染时间与传统高斯飞溅相似。该方法是高斯飞溅的重要进展,可集成到现有基于高斯飞溅的方法中。
本研究探讨了结合盲音频录音和3D场景信息对新视角声学合成的益处。通过音频录音和包含多个未知声源的3D场景,可以估计场景中的任何声音。通过融入从3D重建房间导出的房间脉冲响应(RIRs),可以解决声源定位、分离和去混响的挑战。模拟研究表明,该方法在源定位、分离和去混响方面取得了良好的结果。
本研究解决了仅通过单个深度图像进行类别级物体姿态和形状估计的难题,填补了当前方法对未见领域泛化能力不足的空白。我们提出了一种新的迭代估计方法ShapeICP,无需依赖姿态注释数据,并引入了一种新的基于网格的物体活动形状模型。研究结果表明,ShapeICP在没有姿态注释数据的情况下,其性能超越了许多依赖姿态数据进行训练的数据驱动方法,为研究人员提供了新的探索方向。
本文总结了过去几年针对单细胞数据的图神经网络方法,并强调了以图注意力网络为中心的多样化图深度学习架构及其在单细胞数据上的应用。预计随着大规模组学数据和细胞与基因之间关联性的增强,图神经网络将成为单细胞分析的核心。
Diff3F是一种简单、健壮且与类别无关的特征描述符,用于计算无纹理输入形状。通过生成深度和法线图作为条件图像合成的指导,Diff3F能够在2D上生成特征,并在原始表面上进行提升和聚合。实验证明,Diff3F能够产生可靠的同构和非同构相关形状族之间的对应关系。
使用高级机器学习算法和集成模型,对深度学习的图神经网络在材料性质预测中的集成策略进行了深入评估,得出预测平均等集成技术显著提高关键性质(如每个原子的形成能量,能带隙和密度)的精度的结论,支持在该领域中更广泛地应用集成方法来提高预测准确性。
我们提出了一种透明物体深度补全的端到端网络,结合了单视图 RGB-D 的深度补全和多视图深度估计的优点,并引入了基于置信度估计的深度细化模块,进一步改进了恢复的深度图。实验证明,我们的方法在具有遮挡的复杂场景中具有更高的准确性和鲁棒性。
本研究介绍了一种栅格化方法,用于渲染通用3D高斯飞溅的深度图和表面法线图,提高形状重建准确性并保持计算效率。该方法在DTU数据集上达到与NeuraLangelo相当的Chamfer距离误差,训练和渲染时间与传统高斯飞溅相似。该方法是高斯飞溅的重要进展,可集成到现有方法中。
本文提出了一种卷积网络,可预测物体的RGB图和深度图,并将多幅深度图融合成完整点云,以便对任意视野下的三维物体进行识别。网络通过合成的三维车和椅子模型进行训练,在有杂乱背景并搭配真实车辆图像的情况下,仍可生成合理的推测。
图神经网络(GNN)通过传播和聚合的方式对图的结构信息进行编码。研究者提出了一种新的方法SF-GNN,通过评估节点表示的质量来解决深层GNN性能下降问题。实验证明,SF-GNN在节点分类和链接预测任务中优于现有方法。
完成下面两步后,将自动完成登录并继续当前操作。