本研究探讨大型语言模型(LLMs)在道德判断中的评估,发现其与人类判断存在显著差异,强调对人工系统道德决策的谨慎态度。
本研究探讨大型语言模型(LLMs)在道德判断中的评估问题。
现有方法对复杂日常道德困境的过度简化。
通过评估来自'AITA'社区的道德困境,发现LLMs的道德判断与人类用户显著不同。
研究凸显了在人工系统中实施一致道德推理的复杂性。
提醒我们在人工系统的道德决策中需要谨慎评估。
完成下面两步后,将自动完成登录并继续当前操作。