基于大型语言模型的道德机器实验
原文中文,约400字,阅读约需1分钟。发表于: 。当 LML(大型语言模型)在各个领域中深入应用时,了解它们如何做出道德判断变得至关重要,特别是在自动驾驶领域。本研究利用 Moral Machine 框架,调查了几个重要 LML(包括 GPT-3.5,GPT-4,PaLM 2 和 Llama 2)的道德决策倾向,并将它们与人类偏好进行比较。虽然 LML 和人类的偏好在许多方面保持一致,如优先考虑人类而非宠物,倾向于拯救更多生命,但尤其是...
本研究使用 Moral Machine 框架比较了 LML 和人类的道德决策倾向,发现 PaLM 2 和 Llama 2 存在明显差异,LML 更倾向于坚决的决策。这些发现揭示了 LML 的道德框架和对自动驾驶的潜在影响。