MOKA:道德事件抽取的道德知识扩å 

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文测试了大型语言模型对文本场景进行的因果和道德判断是否与人类参与者的判断相符。结果显示,大型语言模型与人类的判断相符度有所提高,但对不同因素的重视程度存在差异。这揭示了大型语言模型的隐含倾向,并展示了这些倾向与人类的直觉相一致程度。

🎯

关键要点

  • 人类的因果和道德判断基于直觉理论。
  • 本文测试大型语言模型与人类判断的相符度。
  • 大型语言模型的判断相符度有所提高。
  • 模型与人类在不同因素重视程度上存在差异。
  • 研究揭示了大型语言模型的隐含倾向。
  • 这些倾向与人类直觉的一致程度被展示。
➡️

继续阅读