SMPLer:针对单目 3D 人体形状和姿势估计的 Transformer 模型改进

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

本文提出了一种面向SMPL的Transformer框架(SMPLer),通过引入分离的注意力操作和基于SMPL的目标表示,解决了现有monocular 3D人体形状和姿势估计模型的计算和内存复杂度问题,并通过多个新模块提高了重建性能。实验证明SMPLer在量化和定性方面优于现有方法,平均关节定位误差为45.2毫米,比Mesh Graphormer提升了10%以上且参数数量不到三分之一。

🎯

关键要点

  • 提出了一种面向SMPL的Transformer框架(SMPLer)。
  • 引入了分离的注意力操作和基于SMPL的目标表示。
  • 解决了现有monocular 3D人体形状和姿势估计模型的计算和内存复杂度问题。
  • 通过多个新模块提高了重建性能。
  • 实验证明SMPLer在量化和定性方面优于现有方法。
  • 在Human3.6M数据集上实现了45.2毫米的平均关节定位误差。
  • 相较于Mesh Graphormer提升了10%以上,且参数数量不到三分之一。
➡️

继续阅读