MotionAGFormer: 基于 Transformer-GCNFormer 网络的 3D 人体姿势估计增强
💡
原文中文,约500字,阅读约需2分钟。
📝
内容提要
该文介绍了MotionAGFormer模型,使用AGFormer模块减少通道数,精确捕捉邻接关节之间的局部依赖关系。该模型使用四分之一的参数,计算效率提高三倍,取得了最先进的结果。
🎯
关键要点
- 提出了一种新颖的 Attention-GCNFormer(AGFormer)模块。
- AGFormer模块通过两个并行的Transformer和GCNFormer流来减少通道数。
- AGFormer模块能够精确捕捉邻接关节之间的局部依赖关系。
- 通过堆叠多个AGFormer模块,提出了四个不同变体的MotionAGFormer模型。
- MotionAGFormer模型可以根据速度-准确性的权衡进行选择。
- 在Human3.6M和MPI-INF-3DHP两个基准数据集上评估模型。
- MotionAGFormer-B模型取得了38.4mm和16.2mm的P1错误率,达到最先进的结果。
- 与Human3.6M数据集上的前一最先进模型相比,MotionAGFormer-B使用了四分之一的参数,计算效率提高了三倍。
- 模型的代码和模型可在指定的网址上获得。
➡️