人类期望在战略游戏中与大型语言模型对手进行理性和合作

📝

内容提要

本研究解决了人类在与大型语言模型(LLM)对手进行战略博弈时的行为差异问题。通过第一项受控的货币激励实验,发现人类在与LLM对战时选择的数字明显低于与人类对战时的选择,这种变化主要受到高战略推理能力参与者的影响,且参与者对LLM的推理能力和合作倾向的认知也影响了他们的决策。研究结果为人类与LLM的多方交互提供了基础性见解,对混合人类-LLM系统的机制设计具有重要启示。

🏷️

标签

➡️

继续阅读