字节跳动的Depth Anything 3(DA3)模型通过单一Transformer实现深度和姿态估计,简化了三维视觉任务的处理,并刷新了多项基准测试记录。
Matrix3D是一种统一模型,能够同时进行姿态估计、深度预测和新视图合成。它通过多模态扩散变换器整合图像、相机参数和深度图,采用掩码学习策略进行大规模多模态训练,显著提升训练数据的可用性。Matrix3D在姿态估计和新视图合成方面表现优异,并通过多轮交互提供精细控制,是3D内容创作的创新工具。
本研究提出了一种新型神经网络方法,成功解决零售机器人中简单形状产品的姿态估计问题,成功率达到77.3%,显著优于传统模型。
本研究提出了一种基于姿态估计的跌倒检测系统,旨在提高辅助生活机构中老年居民的安全性。该系统无需额外传感器,能够在标准CPU上实时区分跌倒与非跌倒活动,显著降低误报率并保持高准确性。
本研究提出了一种高效流程,通过神经辐射场自动生成多样化、高质量的3D数据集,显著提升了3D姿态估计网络的性能,解决了3D检测中数据集不足的问题。
本研究提出了PoseLess框架,解决机器人手部控制中的姿态估计问题。该方法通过生成合成训练数据,实现从图像直接映射到关节角度,支持零-shot泛化和跨形态迁移,无需人工标注数据。实验结果表明PoseLess在关节角度预测上表现优异。
本研究提出了EgoSim,一种新型身体佩戴相机模拟器,能够生成佩戴者身体各部位的自我中心渲染图像。EgoSim利用真实运动捕捉数据,显著提升了运动跟踪、身体姿态估计和动作识别的表现,尤其在下半身动作识别方面具有重要意义。
本研究提出了一种基于AMIS算法的快速可扩展姿态估计器,旨在解决工业应用中实时反馈的速度与准确性问题。该模型在四个基准数据集上表现优异,实现了推理时间与准确度的优化平衡。
本研究提出了MET-POSE框架,通过变形测试解决姿态估计系统测试中的高成本和低数据再利用性问题。该框架无需手动标注,能够有效评估系统在不同环境下的表现,揭示缺陷,并可根据需求调整测试规则。
本研究提出了一种新型多模态姿态估计模型,有效解决了XR设备中的全身动作跟踪问题,显著提高了准确性和应用范围。
RoboPEPP是一种新方法,旨在提高机器人在未知关节角度下的姿态估计性能。该方法通过掩码自监督嵌入预测架构,将机器人的物理模型信息融入编码器,从而增强对机器人物理结构的理解。研究表明,RoboPEPP在姿态和关节角度估计中表现最佳,且对遮挡的敏感性最低。
本研究提出了一种自监督框架,旨在解决复杂胃肠道条件下内窥镜的深度与姿态估计问题。实验结果表明,该方法在准确性和真实感方面显著优于现有技术,具有重要的临床应用潜力。
本研究提出了一种新的中间骨架表示,解决了姿态估计模型对大量人工标注数据的依赖,显著减少了预测翻转现象,实验结果表明其精度优于传统模型,具有重要的应用潜力。
本研究提出了一种新算法,解决了多视角多人姿态估计的挑战,利用深度信息提升性能,实现了具有良好泛化能力的全身姿态估计,旨在促进相关领域的发展。
我们使用经济高效的合成数据生成和姿态估计器,建立了6D姿态估计流程,并在汽车零件排序中进行评估。结果显示性能有所提升,但仍未达到行业要求,主要因为估计器无法提供可靠的姿态不确定性。进一步分析发现,基于RGB和RGB-D的方法在领域差异上表现出不同的脆弱性。
研究探讨了自动化婴儿运动功能评估中的姿态估计精度。通过比较不同姿态估计器和拍摄角度,发现ViTPose模型在顶视角下表现最佳。研究建议在自动化研究中采用顶视角记录,并提出了新方法和数据集如AggPose和SyRIP,以提高姿势估计的准确性,同时强调数据共享和隐私保护的重要性。这些进展有助于早期诊断和科学研究。
本文提出一种基于GNN的方法,通过语义和局部几何识别点云注册候选,实现激光雷达姿态的精确估计。该方法使用轻量级静态图结构,降低计算负担,并通过跨图关注机制计算置信度。在KITTI数据集测试中,该方法比基准更准确,轨迹更平滑,且使用更少的网络参数。
HandyPriors是一个统一框架,用于人-物互动场景的姿态估计。通过可微的物理和渲染技术,它对齐图像和分割掩码,减少穿透和滑动问题。提供高精度的优化估计和快速追踪,表现优异,并能预测接触信息,适用于机器人手操纵等任务。
该研究提出了一种基于概率密度分布的姿态估计方法,解决了6D物体姿态估计中的多解问题。该方法提高了估计精度,并生成多个有意义的姿态候选。这项工作为现代XR应用提供了可靠的技术基础。
本文介绍了一种名为GatedUniPose的新姿态估计方法,结合了UniRepLKNet和门控卷积,并引入GLACE模块进行嵌入,通过DySample上采样优化特征图拼接方法。实验证明,该方法在复杂场景和遮挡情况下表现优越,性能显著提高,参数数量相对较少,效果优于或可与同类模型媲美。
完成下面两步后,将自动完成登录并继续当前操作。