大型语言模型能模拟人类的信任行为吗?
原文中文,约400字,阅读约需1分钟。发表于: 。大型语言模型(LLM)代理程序作为模拟人类行为的应用工具已经得到越来越广泛的应用,本文关注于研究 LLM 代理程序能否真正模拟人类的信任行为,通过对 LLM 代理程序在信任博弈框架下的行为模式以及与人类的行为一致性的研究,探究了代理程序对信任的偏好和对人类与代理程序之间的信任差异,并对信任在不同场景下的重要性提出了重要启示,从而推动了对 LLM 代理程序与人类之间行为类比的理解。
近期自然语言处理的进展,特别是大型语言模型(LLMs)的出现,为构建精确复制人类行为的计算模拟提供了令人兴奋的可能性。然而,LLMs 在模拟人类互动方面的局限性被突出,特别关注在模拟政治辩论方面的能力。研究发现,LLM 代理倾向于符合模型固有的社会偏见,这导致了行为模式的偏离。使用自动自我微调方法可以操纵 LLM 内的偏见,并展示代理随后与改变后的偏见保持一致。这些结果强调了进一步研究的必要性,以开发帮助代理克服这些偏见的方法。