辩论中 LLM 仿真的系统偏差
原文约500字/词,阅读约需1分钟。发表于: 。近期自然语言处理的进展,特别是大型语言模型(LLMs)的出现,为构建精确复制人类行为的计算模拟提供了令人兴奋的可能性。然而,LLMs 是复杂的统计学习器,缺乏直接的演绎规则,因此容易产生意想不到的行为。本研究突出了 LLMs 在模拟人类互动方面的局限性,特别关注 LLMs 在模拟政治辩论方面的能力。我们的发现表明,尽管被指示从特定的政治角度进行辩论,LLM...
近期自然语言处理的进展,特别是大型语言模型(LLMs)的出现,为构建精确复制人类行为的计算模拟提供了可能性。然而,LLMs 在模拟人类互动方面存在局限性,特别是在模拟政治辩论方面的能力。研究发现,LLM 代理倾向于符合模型固有的社会偏见,导致行为模式偏离人类社会动力学规律。研究使用自动自我微调方法来强化这些观察结果,并展示代理与改变后的偏见保持一致。这些结果强调了进一步研究的必要性,以开发帮助代理克服偏见的方法,是创造更现实模拟的关键一步。