明示和隐示的大型语言模型角色生成意见,但无法复制更深层次的认知和偏见
原文中文,约400字,阅读约需1分钟。发表于: 。通过以人类为模版的角色对大型语言模型进行提示和回答问题,我们研究了这种模型在主观注释任务和信念生成任务中的表现,结果显示大型语言模型在模拟已知的人类偏见方面存在不同的结果,但在表现隐含的偏见方面通常未能达到预期。我们得出结论,大型语言模型缺乏人类思维的内在认知机制,虽然能够捕获人们言语的统计模式,但在复杂社会科学应用中可能限制其效果。
大型语言模型(LLMs)生成文本时存在可控性问题,可能产生刻板立场。使用人类反馈强化学习(RLHF)微调的模型更具可控性,但角色观点较少多样化。评估模型在开放式文本生成中的重要性揭示了新的观点偏见。