💡 原文中文,约2500字,阅读约需6分钟。
📝

内容提要

2026年2月,AI公司Anthropic拒绝了五角大楼的2亿美元合同续约,坚守不用于自主武器和大规模监控的原则。这一决定重新定义了AI治理和企业责任的界限,提出了私人公司对政府技术使用设定道德限制的重大问题。

🎯

关键要点

  • 2026年2月,AI公司Anthropic拒绝了五角大楼的2亿美元合同续约。
  • Anthropic坚持不用于完全自主武器和大规模国内监控的原则。
  • 这一决定重新定义了AI治理、军事技术和企业责任的边界。
  • Anthropic曾是五角大楼的首个AI合作伙伴,其Claude模型在军方网络上工作。
  • 五角大楼要求修改合同条款,Anthropic拒绝了这一要求。
  • 国防部长向Anthropic发出最后通牒,威胁取消合同。
  • Anthropic明确拒绝放弃两条红线,导致五角大楼将其指定为'供应链风险'。
  • OpenAI获得了五角大楼合同,但与Anthropic的立场截然不同。
  • AI伦理的核心问题是私人公司是否可以对政府使用技术设定道德限制。
  • 赋予自主武器权力在伦理和操作上都存在风险。
  • Anthropic要求合同语言反映现有五角大楼政策。
  • 供应链风险指定可能使Anthropic在企业市场中受到影响。
  • AI行业面临三条路径:OpenAI路径、Anthropic路径和xAI路径。
  • Anthropic选择了原则而非利润,其决定将在AI治理领域产生深远影响。
➡️

继续阅读