大型语言模型作为欺骗代理:基于角色的提示如何在拼图任务中引发语义模糊 本研究解决了当前大型语言模型(LLMs)在生成拼图任务时利用语义模糊性进行误导行为的问题。通过比较不同提示方式下生成的拼图,这项研究揭示了直接对抗性提示显著增加了语义模糊性,进而加大了认知负荷,降低了解题公平性。这一发现为理解LLMs的新兴代理特质提供了重要见解,并强调了在教育技术和娱乐领域安全部署自主语言系统的伦理考量。 本研究探讨了大型语言模型在拼图任务中利用语义模糊性的问题,发现对抗性提示增加了认知负荷,降低了解题公平性,并强调了伦理考量。 伦理考量 大型语言模型 拼图任务 认知负荷 语义模糊性