基于上半身姿态的隐私保护3D注视目标检测
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
该研究使用Transformer架构自动检测图像中的对象,并关联注视,实现可解释的注视分析。方法在目标检测、注视距离、对象分类和定位上均有显著提升,AUC提高2.91%,注视距离减少50%,分类和定位精度提高11-13%。
🎯
关键要点
- 该研究使用基于Transformer的架构自动检测图像中的对象。
- 建立对象与注视的关联,实现可解释的注视分析。
- 注视分析包括注视目标区域、注视像素点、被注视对象的类别和图像位置。
- 该方法在目标检测、注视距离、对象分类和定位上均有显著提升。
- AUC提高2.91%,注视距离减少50%。
- 注视对象分类和定位平均精度提高11-13%。
- 代码可在链接中获得。
➡️