通过预训练对比度 EEG-Text 掩蔽自编码器的可转移表示增强 EEG 到文本解码
原文中文,约300字,阅读约需1分钟。发表于: 。提出了一种新颖的 Contrastive EEG-Text Masked Autoencoder 模型,并借助预训练模块以及 EEG 流实现了 EEG 到文本的解码,实验结果表明在文本激发的 EEG 数据库上,该模型在 ROUGE-1 F1 和 BLEU-4 得分上分别超过现有技术 8.34%和 32.21%,这显示了该框架在大脑计算界面应用领域的潜力。
提出了Contrastive EEG-Text Masked Autoencoder模型,实现了EEG到文本的解码。实验结果显示,该模型在文本激发的EEG数据库上的ROUGE-1 F1和BLEU-4得分分别超过现有技术8.34%和32.21%,展示了该框架在大脑计算界面应用领域的潜力。