本研究提出了一个大规模高分辨率的CeleX-HAR数据集,包含150种常见动作类别和124,625个视频序列。研究还介绍了EVMamba网络,通过编码和挖掘事件流的时空信息,提升了动作识别性能。
通过使用相关的语言和视觉信息,提出了一个统一的模型来预测动作类别之间的关系。实验结果表明,预训练的最新神经网络模型对于文本和视频具有很高的预测性能。基于动作标签文本的关系预测比基于视频更准确。通过结合两种模态的预测可以进一步提高预测性能。
完成下面两步后,将自动完成登录并继续当前操作。