💡
原文中文,约4200字,阅读约需10分钟。
📝
内容提要
硅谷AI科学家与监管部门就SB-1047法案展开争议。该法案旨在为高风险AI模型建立安全标准,但科学家认为其过于不合理,将对科技创新造成影响。法案要求模型开发者对下游使用或修改承担法律责任,阻碍开源社区发展。科学家签署联名信以阻止法案通过。
🎯
关键要点
- 硅谷AI科学家与监管部门就SB-1047法案展开争议。
- SB-1047法案旨在为高风险AI模型建立安全标准,防止滥用或灾难性后果。
- 科学家认为法案条款不合理,将对科技创新造成毁灭性影响。
- 法案要求模型开发者对下游使用或修改承担法律责任,阻碍开源社区发展。
- 法案覆盖范围包括使用超过10^26次运算的AI模型,成本超过1亿美元。
- 新成立的前沿模型部门将监督法律执行并制定安全标准。
- 法案包含吹哨人保护条款,保护内部举报者。
- 如果法案通过,将对其他州产生连锁反应,影响创新状况。
- 李飞飞撰文反对法案,认为将损害AI生态系统,惩罚开发者,扼杀开源社区。
- 联名信指出法案对开源模型发布、风险评估和学生职业发展的负面影响。
- 科学家们认为应关注应用而非技术本身的监管,避免过度限制创新。
➡️