任务专用语言模型集成的脑编码
原文中文,约200字,阅读约需1分钟。发表于: 。通过将 10 种常用语言模型进行集成,我们的研究在所有感兴趣区域上比当前基准结果提高了平均 10% 的性能。
本文研究使用基于Transformer的语言模型,比较了不同模型尺寸与训练数据规模对于预测功能性磁共振成像记录下的脑活动响应的影响。结果显示,模型或数据规模增大时,在音频与语言预测方面均能获得显著性提升,为理解大脑语言处理机制和实际解码应用提供改善的可能。
通过将 10 种常用语言模型进行集成,我们的研究在所有感兴趣区域上比当前基准结果提高了平均 10% 的性能。
本文研究使用基于Transformer的语言模型,比较了不同模型尺寸与训练数据规模对于预测功能性磁共振成像记录下的脑活动响应的影响。结果显示,模型或数据规模增大时,在音频与语言预测方面均能获得显著性提升,为理解大脑语言处理机制和实际解码应用提供改善的可能。