SocialGaze:提升大型语言模型中人类社会规范的整合
📝
内容提要
本研究解决了大型语言模型(LLMs)与社会价值观和规范不一致的问题。我们提出了SocialGaze,一个多步骤提示框架,促使语言模型从不同角度理解社会情境,从而更好地判断社会接受度。实验结果表明,该方法与人类判断的对齐度提高了多达11个F1点,揭示了LLMs在归责上的偏见和相关性。
🏷️
标签
➡️