P2LHAP: 基于可穿戴传感器的人体活动识别、分割和预测的 Patch-to-Label Seq2Seq Transformer

💡 原文中文,约500字,阅读约需1分钟。
📝

内容提要

P2LHAP是一种新的Patch-to-Label Seq2Seq框架,能够从传感器数据中同时分割、识别和预测人类活动。它通过补丁级表示和平滑技术实现准确识别活动边界,并在三个任务中优于现有技术水平。

🎯

关键要点

  • 传统深度学习方法难以从传感器数据中同时分割、识别和预测人类活动。
  • P2LHAP是一种新颖的Patch-to-Label Seq2Seq框架,解决了分割、识别和预测三个任务。
  • P2LHAP将传感器数据流划分为补丁,输出补丁级活动标签序列。
  • 提出了一种基于周围补丁标签的平滑技术,用于准确识别活动边界。
  • P2LHAP使用独立的Transformer编码器和解码器学习补丁级表示,所有通道共享嵌入和Transformer权重。
  • 在三个公开数据集的评估中,P2LHAP显著优于现有技术水平,展示了其有效性和潜力。
➡️

继续阅读