通过深度学习视听融合加强人类动作识别和暴力检测
原文中文,约400字,阅读约需1分钟。发表于: 。该论文提出了一种基于音频和视频两种模态的混合融合深度学习方法,以提高对公共场所的人类活动识别和暴力检测的准确性。通过对比使用晚期融合、中间融合和混合融合的深度学习方法,在扩展并应用 Real-life 暴力情况(RLVS)数据集的基础上,HFBDL 的模拟结果在验证数据上表现出 96.67%的准确率,比该数据集上的其他最先进方法更准确。在 54 个声音视频数据集中,该模型成功正确检测出...
该论文提出了一种基于音频和视频两种模态的混合融合深度学习方法,用于提高公共场所的人类活动识别和暴力检测的准确性。该方法在验证数据上达到96.67%的准确率,成功检测出52个视频,可应用于人体动作识别和暴力检测。