大型语言模型对齐与安全的基础挑战
针对大型语言模型(LLMs)的对齐和安全问题,本研究确定了 18 个基础挑战,并将其组织成科学理解、开发和部署方法以及社会技术挑战三个不同类别。根据这些挑战,我们提出了 200 多个具体的研究问题。
本研究介绍了对大型语言模型(LLM)值得信赖性评估的关键维度,包括可靠性、安全性、公平性、抵抗滥用性、可解释性和推理性、遵守社会规范以及鲁棒性。研究结果显示,更符合人类意图的模型在整体可信度方面表现更好,但对不同可信度类别的影响程度不同。该研究旨在为从业人员提供见解和指导,实现可靠和符合伦理的LLM部署。