SMPLer:针对单目 3D 人体形状和姿势估计的 Transformer 模型改进
原文中文,约400字,阅读约需1分钟。发表于: 。通过引入两个关键元素,即分离的注意力操作和基于 SMPL 的目标表示,本文提出了一种面向 SMPL 的 Transformer 框架(SMPLer),通过有效利用 Transformer 中的高分辨率特征来解决了现有 monocular 3D human shape 和 pose estimation 模型在计算和内存复杂度方面的问题,并通过多个新模块进一步提高重建性能。在实验证明了...
本文提出了一种面向SMPL的Transformer框架(SMPLer),通过引入分离的注意力操作和基于SMPL的目标表示,解决了现有monocular 3D人体形状和姿势估计模型的计算和内存复杂度问题,并通过多个新模块提高了重建性能。实验证明SMPLer在量化和定性方面优于现有方法,平均关节定位误差为45.2毫米,比Mesh Graphormer提升了10%以上且参数数量不到三分之一。