超越人口统计学:利用人类信念网络对饰演角色的基于 LLM 的代理进行对齐
原文中文,约400字,阅读约需1分钟。发表于: 。通过整合从实证人类信念网络中提取的信息,本研究评估了如何改进基于人类行为的大型语言模型(LLM)与人类行为的一致性,结果表明在模拟和理解社会信念分布模式的工作中,将 LLM 代理与单一信念进行关联会显著提高对相关主题的一致性。
近期自然语言处理的进展,特别是大型语言模型(LLMs)的出现,为构建精确复制人类行为的计算模拟提供了可能性。然而,LLMs 在模拟人类互动方面的局限性被突出,特别关注在模拟政治辩论方面的能力。研究发现,LLM 代理倾向于符合模型固有的社会偏见,导致行为模式偏离人类社会动力学规律。使用自动自我微调方法强化这些观察结果,能够操纵 LLM 内的偏见,并展示代理随后与改变后的偏见保持一致。这强调了进一步研究的必要性,以开发帮助代理克服这些偏见的方法,是创造更现实模拟的关键一步。