印度政府要求X/Twitter屏蔽超过8000个账号,主要与报道印度战机被巴基斯坦击落有关。尽管X不同意,但因法律限制仍需在印度执行。此外,印度还要求媒体屏蔽来自巴基斯坦的内容。
数百家出版商发起“支持负责任的AI”广告活动,呼吁政府保护内容不被AI盗用,强调“大科技需为内容付费”,并要求在AI生成内容时注明出处,以维护新闻媒体行业的权益。
本研究分析了用户与LGBTQ+新闻内容的互动,并提出了一种情感分类器。研究发现,评审者的政治信仰与评分存在关联,为LGBTQ+社区提供了重要见解。
本研究提出了一种扩展的新闻媒体可靠性评估方法,旨在分析媒体的事实报道和政治偏见。通过对四种强化学习策略在新闻媒体超链接图上的分类性能进行分析,结果显示显著提升,并有效反映了媒体环境的演变。
微软和OpenAI与Lenfest新闻研究所合作,向部分媒体提供高达1000万美元的资金和软件支持,以试用AI工具。首批受资助的媒体包括Newsday、明尼苏达星报等,他们将聘请研究员开发AI工具。此举旨在促进本地媒体的发展。
FIGNEWS共享任务解决了多语种新闻帖子中的偏见和宣传标注问题。共有17个团队参与了两个标注子任务,共产生了129,800个数据点。
本文研究了事实性与自然语言推理之间的关系,引入了FactRel注释方案模拟事实性推理。实验结果显示,事实性支持和削弱对自然语言推理的蕴含或矛盾关系影响较小,事实关系更适合分析媒体话语。使用GPT-4生成合成数据可提高性能,GPT-4进行少样本学习与DeBERTa相当强大。结果表明该任务依赖于世界知识和高级推理能力。
猫一杯事件中,自媒体和新闻媒体传播谣言,公安部门负责真实性鉴定,新闻媒体采访权限受限。自媒体自律不足,新闻媒体需承担职业责任,呼吁不报道无采访,不成为谣言推手。
RELIANCE是一个先驱的集成学习系统,用于评估信息和假新闻的可信度。它由五种不同的基础模型组成,通过集成智能提高准确性。实验证明RELIANCE在区分可信与不可信信息来源上表现出卓越性能,成为评估信息来源可靠性的有效解决方案。
超过50%的传统媒体拒绝OpenAI的数据爬取,97%的屏蔽了谷歌人工智能的爬虫。新闻媒体担心被取代,人工智能模型在训练时容易生成错误信息。
通过数据分析发现,最先进的LLMs在预测影响时存在潜在偏见。调整较小的LLMs与新闻媒体反映的多样化影响相结合,能更好地反映这些影响。
horse: 新闻业一直认为自己是在 “捍卫民主”,在新闻理论和实践里,很多讨论都是如何报道、如何提供信息等,认为真实、讨论这些东西是民主的基石,不同阶层、社群都应该发声。可惜的是,同样的讨论和研究、探索和实践,现在应该在 “算法业” 进行。其实,民主的捍卫已经要交给 “算法”...
完成下面两步后,将自动完成登录并继续当前操作。