Denevil:通过指令学习解读和引导大型语言模型的道德价值
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本文介绍了一种获取语言模型中编码信念的方法,并研究了不同模型中的道德信念。研究发现,大多数模型在明确情境下选择常识行动,在模棱两可的情况下表达不确定性。一些模型在模糊情境中表现出明确偏好,尤其是闭源模型。
🎯
关键要点
- 本文介绍了一种获取语言模型中编码信念的统计方法。
- 研究了不同语言模型中的道德信念,特别是在模棱两可的情况下。
- 设计了一项包含680个道德情景和687个明确道德情景的大规模调查研究。
- 调查了28个开放和闭源语言模型的表现。
- 在明确情景中,大多数模型选择与常识一致的行动。
- 在模棱两可的情况下,大多数模型表达了不确定性。
- 部分模型对问题的方式非常敏感。
- 一些模型在模糊情景中表现出明确偏好,尤其是闭源模型之间的一致性较高。
➡️