P2LHAP: 基于可穿戴传感器的人体活动识别、分割和预测的 Patch-to-Label Seq2Seq Transformer
原文中文,约500字,阅读约需1分钟。发表于: 。传统深度学习方法难以从传感器数据中同时分割、识别和预测人类活动,限制了其在医疗保健和辅助生活等领域的实时理解能力。本文介绍了 P2LHAP,一种新颖的 Patch-to-Label Seq2Seq 框架,有效地解决了这三个任务,将传感器数据流划分为一系列 “补丁”...
P2LHAP是一种新的Patch-to-Label Seq2Seq框架,能够从传感器数据中同时分割、识别和预测人类活动。它通过补丁级表示和平滑技术实现准确识别活动边界,并在三个任务中优于现有技术水平。