基于上下文聚合的情境道德价值调整 原文约400字,阅读约需1分钟。发表于:2024-03-19T00:00:00Z。 我们提出了一种基于上下文的道德价值对齐系统,通过对用户输入提取的特征,将适合回应用户的一部分最佳 LLM 响应整合在一起,该系统在与人类价值对齐方面显示出比现有技术更好的结果。 大型语言模型在人工智能领域具有重要作用,但也带来伦理风险和挑战。本文调查了人工智能伦理准则,并提出了重新评估的建议。同时,利用道德基础理论研究了大型语言模型的道德倾向,并讨论了对齐伦理价值观的挑战和研究方向。这是构建符合伦理要求的人工智能的初步步骤。 人工智能 伦理价值观 伦理风险 大型语言模型 道德倾向