从指令到内在人类价值观 —— 大型模型目标同步调查
原文中文,约400字,阅读约需1分钟。发表于: 。通过综合调查现有工作的不同对齐目标并追踪其演变路径,本文揭示了从基本能力到价值取向的目标转变,表明内在人类价值可能是提升大型语言模型对齐目标的关键,进一步讨论了实现此内在价值对齐的挑战,并提供了一系列可用资源以支持未来对大型模型对齐的研究。
本研究介绍了对大型语言模型(LLM)值得信赖性进行评估时需要考虑的关键维度,包括可靠性、安全性、公平性、抵抗滥用性、可解释性和推理性、遵守社会规范以及鲁棒性。研究发现更符合人类意图的模型在整体可信度方面表现更好,但对不同可信度类别的影响程度不同。研究旨在为从业人员提供见解和指导,实现可靠和符合伦理的LLM部署。