利用眼动追踪研究中文母语者对语言景观图像的注意力
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文研究了阅读文本时眼动的影响和多语言模型对跨语言转移的使用。作者使用眼动模式和多语言模型成功预测了13种语言的模式,并量化了模型对结构复杂性的敏感性。结果表明,模型整合了跨语言之间的差异,并捕捉到了更复杂的结构信息。
🎯
关键要点
-
本文探讨了阅读文本时眼动的影响。
-
研究了多语言模型对跨语言转移的使用。
-
使用句子级别的眼动模式将结构复杂性作为认知指标。
-
多语言模型 XLM-RoBERTa 能够成功预测 13 种形态上不同的语言的模式。
-
量化了模型对结构复杂性的敏感性,并区分了一系列复杂性特征。
-
模型整合了跨语言之间的差异,并对句子长度有意义的偏见。
-
进行了随机单词顺序的控制实验,发现模型捕捉到了更复杂的结构信息。
➡️