基于大型语言模型的道德机器实验
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本研究使用 Moral Machine 框架比较了 LML 和人类的道德决策倾向,发现 PaLM 2 和 Llama 2 存在明显差异,LML 更倾向于坚决的决策。这些发现揭示了 LML 的道德框架和对自动驾驶的潜在影响。
🎯
关键要点
- 本研究使用 Moral Machine 框架比较 LML 和人类的道德决策倾向。
- 研究调查了多个重要 LML,包括 GPT-3.5,GPT-4,PaLM 2 和 Llama 2。
- LML 和人类在许多方面的偏好一致,如优先考虑人类而非宠物,倾向于拯救更多生命。
- PaLM 2 和 Llama 2 表现出明显的道德决策差异。
- LML 在量的方面与人类存在显著差异,表现出更坚决的决策倾向。
- 这些发现揭示了 LML 的道德框架及其对自动驾驶的潜在影响。
➡️