本研究探讨了OpenAI大型语言模型在决策中的自利与利他行为。通过实验发现,只有高级AI在独裁者游戏中表现出较高的利他行为。研究强调道德认知在AI设计中的重要性,并提出结合道德价值的计算模型,证明具备这些模型的AI表现出更道德的行为。此外,提出了FairMindSim模型,分析人类与AI在伦理困境中的互动,发现GPT-4o在社会公正感上表现更强。
本研究探讨大型语言模型(LLMs)在模拟人类行为中的应用与局限性。实验表明,LLMs能够在一定程度上模拟利他与自私行为,但在复杂社会情境中的表现有限。研究建议深入分析模型架构与训练对行为的影响,以推动更符合人类价值的人工智能系统发展。同时,LLMs在道德评估上与人类存在差异,需谨慎使用以避免偏见。
本研究探讨大型语言模型(LLMs)在模拟人类行为中的能力,发现其在利他与自私行为转化上存在局限,尤其在社会困境中。研究呼吁深入分析模型架构和训练参数对行为的影响,以促进更符合人类价值的人工智能系统发展。同时,LLMs在博弈论中的表现显示出合作倾向,但在复杂环境中的决策能力仍需改进。
完成下面两步后,将自动完成登录并继续当前操作。