心智对口:关于测量大型语言模型中社会偏见的重新判断不一致性
原文中文,约400字,阅读约需1分钟。发表于: 。近期的研究表明,预训练的大型语言模型(LLMs)具有类似于人类观察到的认知结构,促使研究人员探究 LLMs 的认知方面。本文聚焦于心理学中的一个独特两级认知结构,即显性社会偏见和隐性社会偏见。我们提出了一个两阶段的方法,并在 LLMs 中发现了一个并行现象,即社会偏见中的 “重新判断不一致”。实验调查 ChatGPT 和 GPT-4...
最近的研究发现,预训练的大型语言模型(LLMs)具有类似于人类认知结构的特点。本文研究了心理学中的社会偏见,并在LLMs中发现了“重新判断不一致”的现象。实验证实了这种现象的高度稳定性,可能意味着随着LLMs能力的增强,不同的认知结构也会出现。心理学理论可以提供对LLMs中显性和隐性结构表达的深入洞察。