本文分析了谷歌SAIF框架下AI系统的15种风险及其防控措施,包括数据中毒、模型泄露和模型篡改等,提出了数据清理、访问控制和输出验证等防控策略,强调了风险管理的重要性。
本研究探讨公共部门生成式人工智能的风险评估,提出了一个系统化的数据生成框架(SAIF),包括风险分解和场景设计等四个阶段,以有效应对新兴风险,确保安全和负责任的整合。
时间:11月22日(13:00-17:00),地点:上海浦东新区陆家嘴东园路18号中国金融信息中心三楼上海厅,欢迎同学们与HR现场交流。
本文提出了一种新方法,将符号人工智能与深度学习结合,解决模型训练中缺乏领域专家知识的问题。通过新的损失函数,直接编码领域约束和逻辑推理,从而提升模型的性能和可信度,适用于各类工业领域。
我们推出了安全人工智能框架(SAIF)及其风险评估工具,旨在帮助用户评估AI系统的安全性,生成定制检查清单,识别风险并提供缓解建议。该工具可在SAIF.Google网站上使用,推动AI生态系统向更安全的未来发展。
谷歌发布了一份新报告,探讨了红队演练在支持安全人工智能框架(SAIF)中的关键作用。该报告介绍了红队演练的定义和重要性,攻击类型以及从中学到的经验教训。红队演练是谷歌红队模拟各种对手进行对抗的活动。
完成下面两步后,将自动完成登录并继续当前操作。