本研究提出了SOLAR框架,以解决大规模语言模型在个体主观性建模中的不足。该框架通过分析用户生成文本中的价值冲突和权衡,显著提升了推断结果和处理争议情境的能力,并解释了个体的价值偏好。
本研究提出了道德基础LLM数据集(MFD-LLM),旨在探讨大型语言模型的隐性偏见和道德倾向。评估结果显示,顶尖模型在价值偏好上存在显著同质性,但缺乏一致性,为未来的优化提供了启示。
完成下面两步后,将自动完成登录并继续当前操作。