本研究提出了一种基于RGB-事件的行人属性识别方法,并推出了首个大规模多模态数据集EventPAR,涵盖50个属性和六种情感。通过重训练主流模型并引入RWKV框架,取得了先进的识别性能,为未来研究提供了数据和算法基准。
该研究利用视觉语言融合方法解决行人属性识别问题,使用预训练的CLIP模型作为骨干网络,通过对比学习和Transformer层捕捉像素之间的关系,最后采用多模态Transformer融合特征并使用前馈网络预测属性。该算法在行人属性识别领域取得了最优结果。
该文介绍了使用步态分析进行人员身份识别和行人属性识别的方法,提出了DenseGait数据集和GaitFormer模型,并在CASIA-B和FVG数据集上取得了较高的准确率。该方法能够准确识别性别信息和多种外貌属性。
完成下面两步后,将自动完成登录并继续当前操作。