文章探讨了大型机构中问责机制缺失的问题,导致程序化决策优先规避责任而非追求公正。以阿姆斯特丹机场处理无进口文件事件为例,强调个人责任的缺失。尽管程序化提高了效率,但其根本目的是避免责任,导致公众对制度的不满。文章还强调在危机中灵活应对和人性化决策的重要性。
大语言模型(LLMs)在学术同行评审中逐渐应用,但可能引发操控、偏见和幻觉等风险。研究表明,作者可能通过隐性或显性方式影响审稿意见,损害评审公正性。专家建议暂停LLMs作为审稿工具,并引入检测工具和问责机制,以维护学术评审的公平性和严谨性。
2020年,因疫情取消A-level考试,英国采用算法评估成绩,导致公立学生成绩被降级,私立学生成绩被抬高,引发广泛反对。专家指出,AI偏见加剧社会不平等,影响大学录取和贷款决策。为解决AI偏见,需建立问责机制,确保公平。
完成下面两步后,将自动完成登录并继续当前操作。