BISeizuRe: 基于 BERT 启发的癫痫数据表示以提升癫痫监测

💡 原文中文,约600字,阅读约需2分钟。
📝

内容提要

研究者提出了一种统一的 EEG 基础模型 LaBraM,通过预训练和微调来提高脑电图深度学习模型的感知能力和泛化能力。实验证明,LaBraM 在异常检测、事件分类、情绪识别和步态预测等任务上表现优于其他方法。

🎯

关键要点

  • 当前的 EEG 深度学习模型通常针对特定数据集和 BCI 应用,限制了模型的规模。
  • 大型语言模型的成功激发了探索大型脑电图模型的能力。
  • 希望通过无监督预训练,LEMs 可以突破 EEG 数据集的限制,获得通用感知能力。
  • EEG 数据集容量通常较小且格式多样,提出了统一的 EEG 基础模型 LaBraM。
  • LaBraM 通过将 EEG 信号分割为通道块实现跨数据集学习。
  • 使用量化向量神经谱预测训练神经分词器,将 EEG 通道块编码为神经代码。
  • 通过预测遮蔽的 EEG 通道块的原始神经代码来预训练神经 Transformer。
  • LaBraM 在约 20 个数据集上进行了 2,500 小时的预训练,并在多种下游任务上验证。
  • 实验表明,LaBraM 在异常检测、事件分类、情绪识别和步态预测等任务上表现优于其他方法。
➡️

继续阅读