MotionAGFormer: 基于 Transformer-GCNFormer 网络的 3D 人体姿势估计增强
原文中文,约500字,阅读约需2分钟。发表于: 。我们提出了一种新颖的 Attention-GCNFormer(AGFormer)模块,通过使用两个并行的 Transformer 和 GCNFormer 流来减少通道数,以精确捕捉邻接关节之间的局部依赖关系。通过以适应性方式融合这两种表示,AGFormer 模块在学习底层 3D 结构方面表现出更好的能力。通过堆叠多个 AGFormer 模块,我们提出了四个不同变体的...
该文介绍了MotionAGFormer模型,使用AGFormer模块减少通道数,精确捕捉邻接关节之间的局部依赖关系。该模型使用四分之一的参数,计算效率提高三倍,取得了最先进的结果。