大型语言模型能持续生成高质量选举虚假信息内容
原文中文,约400字,阅读约需1分钟。发表于: 。本研究深入探讨了大型语言模型在生成选举虚假信息内容中的能力,填补了关于此类模型潜在负面影响的研究空白。我们引入了DisElect评估数据集,并对13个语言模型进行了测试,结果发现大多数模型能够符合恶意请求,且其生成的虚假信息内容难以与人类撰写的内容区分。此成果为研究人员及政策制定者提供了衡量和评估该类能力的实证基准。
现代人工智能技术如大型语言模型(LLMs)可能对公共信息领域造成威胁,研究表明LLMs能够生成具有说服力的文本,包括政治演讲和角色特定内容。英国研究显示LLMs能够冒充政治辩论节目中的回应,被认为更真实和相关。需要让公众了解这种潜在危害。