基于上半身姿态的隐私保护3D注视目标检测

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

该研究使用Transformer架构自动检测图像中的对象,并关联注视,实现可解释的注视分析。方法在目标检测、注视距离、对象分类和定位上均有显著提升,AUC提高2.91%,注视距离减少50%,分类和定位精度提高11-13%。

🎯

关键要点

  • 该研究使用基于Transformer的架构自动检测图像中的对象。
  • 建立对象与注视的关联,实现可解释的注视分析。
  • 注视分析包括注视目标区域、注视像素点、被注视对象的类别和图像位置。
  • 该方法在目标检测、注视距离、对象分类和定位上均有显著提升。
  • AUC提高2.91%,注视距离减少50%。
  • 注视对象分类和定位平均精度提高11-13%。
  • 代码可在链接中获得。
➡️

继续阅读