本文介绍了一种新的方法,通过将大型语言模型(LLM)表示与人类认知信号进行桥接,评估LLM在模拟认知语言处理方面的有效性。实验结果表明,模型扩展与LLM-脑信号相似性呈正相关,对齐训练可以显著提高LLM-脑信号相似性。
最近的研究成功将fMRI和EEG等认知信号解码为文本,但数据污染影响了模型性能。为了公平评估不同模型的泛化能力,研究提出了一种新的数据集拆分方法,并测试了SOTA脑-文本解码模型的性能。
本文提出了一种新的方法,通过将大型语言模型(LLM)与人类认知信号进行桥接,评估LLM在模拟认知语言处理方面的有效性。实验结果表明,模型扩展与LLM-脑信号相似性呈正相关,对齐训练可以显著提高LLM-脑信号相似性。
最近的研究成功将认知信号如fMRI和EEG解码为文本,但数据污染问题影响了模型性能。为了公平评估不同模型的泛化能力,研究提出了一种新的数据集分裂方法,并测试了脑-文本解码模型的性能。
完成下面两步后,将自动完成登录并继续当前操作。