语言模型能否识别有说服力的论点?
原文中文,约400字,阅读约需1分钟。发表于: 。大型语言模型(LLMs)的能力不断增长,但也引发了对其潜在滥用创建个性化、令人信服的错误信息和宣传的担忧。为了了解 LLMs 的说服能力,我们在 Durmus&Cardie(2018)的数据集上进行了研究,提出了衡量 LLMs 能力的任务,包括区分强弱论点、根据信念和人口特征预测立场、以及根据个人特征确定论点的吸引力。我们发现 LLMs 在这些任务中能与人类持平,并且合并不同 LLMs...
大型语言模型(LLMs)的能力不断增长,但也引发了对其潜在滥用的担忧。研究发现LLMs在衡量其能力的任务中能与人类持平,并且合并不同LLMs的预测可以显著提高性能。本文发布的数据和代码为持续评估和监测LLMs的潜在影响和能力做出了关键贡献。