生成性人工智能中的知识不公
原文中文,约500字,阅读约需1分钟。发表于: 。本文探讨了生成性人工智能如何潜在地破坏集体知识的完整性及信息获取、评估和信任的过程,威胁知识生态系统和民主话语。我们引入“生成算法知识不公”的概念,并识别出四个关键维度,提出相应的应对策略,以促进公平的信息生态系统,维护民主价值和知识生产的完整性。
最近的生成型AI系统展示了更先进的说服能力,并且越来越多地渗透到可以影响决策的领域。本文为AI说服的系统研究奠定了基础,提出了生成型AI的定义,区分了理性说服型和操纵型AI,并介绍了AI说服伤害的风险图和有助于有害说服的机制图。提供了一种减轻说服过程伤害的方法概述,未来工作将进一步研究减轻措施和不同类型的说服机制之间的相互作用。