Anthropic在愚人节发布声明,称其泄露事件为故意的“受控混乱演练”,引发公众对信息真实性的质疑。泄露的代码和文档被指为伪造,导致开发者和网友在Reddit上激烈讨论,反映出公众对企业声明的信任度下降,揭示了信息时代的认知危机。
文章讨论了人们对AI生成代码的认知失调。作者Chris Coyier指出,熟悉某个主题时,人们能识别AI的错误,而对不熟悉的主题则觉得AI有用。这引发了对知识来源和确定性的思考,许多人愿意为感觉“知道”而付出代价。随着年龄增长,作者意识到自己对许多事情的理解充满不确定性,这让人感到不安。
AIxiv专栏促进学术交流,报道超过2000篇内容。马里兰大学研究团队提出AutoHallusion框架,自动生成视觉大模型的幻觉案例,以解决数据集不足的问题。实验结果显示,GPT-4V等模型在新基准数据集上的问答准确率最高为66%。该研究已发表于EMNLP 2024。
本研究探讨大型语言模型在生成信息时的过度自信与实际准确性之间的认知失调。通过新数据集和测量方法,错误率降低超过50%,揭示模型表达与准确性不一致,强调需改进以降低用户误导风险。
本文介绍了使用大语言模型(LLMs)提高心理治疗可访问性的方法,通过提取与认知失调相关的部分和多智能体辩论推理步骤的辅助模块,提高了基于LLM的认知失调分类性能。实验结果表明,该方法提高了多类F1分数和二进制特异性分数,并通过提供多智能体辩论摘要给LLMs,有效降低了具有高假阳性率的基准方法的偏见。
该研究提出了一种基于机器学习的框架,用于自动检测和分类15种认知失真类型。该模型实现了加权F1得分0.88,并在更大的众包数据集中产生了0.68的加权F1得分。此外,该研究还探讨了建立相似认知失真之间主题关系的探索分析。
完成下面两步后,将自动完成登录并继续当前操作。