社交媒体平台X/Twitter正在开发AI生成内容的标注功能,用户需标识内容是否由AI生成,以打击误导性信息。未标注的高曝光内容可能被举报并导致封号,关注量大的用户需遵守相关规范以避免风险。
谷歌因其AI在医疗搜索中提供误导性信息而受到批评。专家指出,谷歌错误建议胰腺癌患者避免高脂肪食物,可能增加死亡风险。此外,关于肝功能测试的虚假信息可能导致肝病患者误认为自己健康。谷歌已禁用相关AI概述,并表示将继续改进信息质量。
清华大学研究人员发现大语言模型在面对误导性信息时可能会错误地判断地球是平的,最先进的模型有高达20.7%的可能性被虚假信息所影响。研究者提出了一种轻量级解决方案以提升大模型的抗虚假信息干扰能力。大语言模型在经过一轮虚假信息交互后,信心程度会降低,但对于一些问题,重复虚假信息却让大模型更加确信自己的答案。未来的研究可以进一步提高大模型的可解释性和探索其潜力。
本文介绍了CALVI系统,用于衡量公众在阅读、解释和推理可视化信息方面的能力。CALVI包含45个项目,涵盖了可视化误导者和图表类型。通过预实验和测试试行阶段,作者们验证了CALVI的有效性,并通过项目反映理论和有效性评估对项目进行了修改。最终,CALVI生成了52个可视化,并确定了6个需要修改的项目。该研究对于帮助公众识别可视化中的误导性信息具有重要意义。
完成下面两步后,将自动完成登录并继续当前操作。