基于上下文聚合的情境道德价值调整

原文约400字,阅读约需1分钟。发表于:

我们提出了一种基于上下文的道德价值对齐系统,通过对用户输入提取的特征,将适合回应用户的一部分最佳 LLM 响应整合在一起,该系统在与人类价值对齐方面显示出比现有技术更好的结果。

大型语言模型在人工智能领域具有重要作用,但也带来伦理风险和挑战。本文调查了人工智能伦理准则,并提出了重新评估的建议。同时,利用道德基础理论研究了大型语言模型的道德倾向,并讨论了对齐伦理价值观的挑战和研究方向。这是构建符合伦理要求的人工智能的初步步骤。

相关推荐 去reddit讨论