本研究探讨大型语言模型(LLMs)是否能够模拟人类的伦理推理。通过评估196个伦理困境,结果显示LLMs在一致性方面优于非专家人类,但在历史背景和微妙策略的理解上仍存在局限,揭示了其优势与不足。
本研究提出了一种新的多道德马尔可夫决策过程模型,以解决机器伦理决策中的不确定性问题,并通过多目标AO*启发式算法验证了在不确定条件下的伦理推理方法。
本研究评估了大型语言模型(LLMs)的伦理推理能力,发现其在关怀/伤害和公平/欺骗方面表现一致,但对权威、忠诚和神圣等维度重视不足。这为人工智能的伦理基准提供了方法论,突显了其潜力与局限性。
本文提出了一个五维审计模型,用于评估生成性人工智能模型在关键领域应用中的伦理推理。研究发现,尽管模型在伦理决策上趋向一致,但在解释严谨性和道德优先级上存在差异,强调了AI在复杂决策中补充人类道德推理的潜力。
本研究分析了六个生成性大型语言模型在道德困境中的伦理推理表现,发现它们在伦理逻辑上保持一致,主要侧重于理性和结果导向,但在微调和后训练方面存在显著差异。
研究分析语言模型在伦理模糊情境中与人类判断的不一致,揭示其局限性。通过精细调优,模型在复杂道德决策中的理解和对人类判断的对齐显著提升。研究强调需进一步探索伦理推理技术,以更好捕捉人类判断的细微差别。
完成下面两步后,将自动完成登录并继续当前操作。