CLIP-Hand3D:基于上下文感知的 3D 手势姿态估计的利用
原文中文,约300字,阅读约需1分钟。发表于: 。提出了一种称为 CLIP-Hand3D 的新颖的 3D 手势估计器,能够成功地将文本提示与不规则的详细姿势分布连接起来,并通过对姿势标签进行编码,形成相应的文本提示,并从中检索 3D 空间中的 21 个手关节,并对它们的空间分布进行编码以形成姿势感知特征,随后通过构建一个粗到细的网格回归器来最大化姿势 -...
研究提出了一种名为CLIP-Hand3D的3D手势估计器,能够将文本提示与不规则的详细姿势分布连接起来,并通过对姿势标签进行编码,形成相应的文本提示,并从中检索21个手关节的空间分布以形成姿势感知特征。实验结果表明,该模型在几个公开手部基准测试中实现了更快的推断速度和最先进的性能。