微软在首份透明度报告中称其为负责任的AI做出了诸多努力

微软在首份透明度报告中称其为负责任的AI做出了诸多努力

💡 原文英文,约300词,阅读约需2分钟。
📝

内容提要

微软发布负责任的AI透明度报告,介绍去年推出负责任AI平台的步骤,包括创建30个负责任的AI工具、扩大负责任AI团队、要求测量和映射风险、添加内容凭证到图像生成平台、扩大红队测试努力、允许第三方测试新模型。微软表示理解AI仍是进行中的工作。

🎯

关键要点

  • 微软发布负责任的AI透明度报告,概述了去年推出负责任AI平台的步骤。
  • 报告主要涵盖2023年,展示了安全部署AI产品的成就。
  • 微软与白宫签署自愿协议,承诺建立负责任的AI系统并确保安全。
  • 过去一年,微软创建了30个负责任的AI工具,扩大了负责任AI团队。
  • 要求生成性AI应用团队在开发周期中测量和映射风险。
  • 在图像生成平台上添加了内容凭证,为照片加上水印,标记为AI模型生成。
  • 为Azure AI客户提供检测有问题内容的工具,包括仇恨言论、色情内容和自残内容。
  • 扩展了新的越狱检测方法,包括间接提示注入的检测。
  • 扩大红队测试工作,包括内部红队和允许第三方测试的新模型。
  • 微软的AI推出并未免于争议,负责任的AI仍在不断进展中。
➡️

继续阅读