在第229期播客中,讨论了谷歌的Gemini 3 Flash和OpenAI的GPT-5.2 Codex等重要AI新闻。中国在半导体技术方面取得进展,华为和中芯国际推动EUV光刻机的发展。OpenAI关注生物安全和网络安全风险,并与美国军方合作开发新AI平台。
OpenAI重视独立第三方评估,以增强AI安全生态系统。这些评估验证安全能力,提升透明度,支持负责任的部署决策。自GPT-4发布以来,OpenAI与多方合作,进行涵盖生物安全和网络安全等领域的独立评估,确保模型安全有效。
本文研究了发布gpt-oss的最坏情况风险,提出了恶意微调(MFT)概念,并在生物和网络安全领域进行评估。通过任务创建和强化学习环境训练gpt-oss,结果显示其在这两个领域的风险评估表现不佳,未能显著推动前沿发展。这些发现影响了模型的发布决策。
先进的人工智能模型在生物领域加速科学发现,促进药物研发和疫苗设计,但也存在滥用风险。需采取负责任的措施,确保生物安全,限制有害能力的访问,并加强与政府和专家的合作,以应对潜在威胁。
美国商务部将人工智能安全研究所更名为人工智能标准与创新中心,重点关注国家安全风险和国际标准。新机构将评估网络安全和生物安全等风险,并调查外部恶意影响。这是特朗普政府推动美国AI公司扩展的举措之一。
文章探讨了自主性、生物安全、网络安全和机器学习研发的风险及缓解措施。未来基础模型可能带来严重风险,需评估其对有害活动的影响。研究团队致力于评估关键能力的风险并开发评估工具。Google将定期审查框架,以确保符合AI原则,促进安全与创新的平衡。
人工智能(AI)带来了巨大的好处,但也存在风险。紫色团队合作是一个综合框架,通过对抗性漏洞探测和安全解决方案相结合,开发可靠和负责任的AI。它解决了AI在生物技术中的生物安全风险,并提供了关键观点。紫色团队合作旨在引导AI朝向社会福祉,为共同福利赋予道德技术的力量。
完成下面两步后,将自动完成登录并继续当前操作。