欢迎收听《AI 星辰电台》。在通勤的 10 分钟里,我们带你快速浏览全球 AI 治理与数据合规的最新图景。本期节目聚焦 AI 治理的具体化进程:从加州用政府采购塑造可信 AI 市场,到英国量化前沿 AI 的网络攻击能力,再到纽约将透明度和事件报告法定化。
🕒 节目导航
- 第一条 加州州长签署行政令:用政府采购塑造可信 AI 市场核心进展:2026 年 3 月 30 日,加州州长 Gavin Newsom 签署第 N-5-26 号行政令“可信 AI 采购”,将政府采购作为塑造市场行为和鼓励负责任创新的工具。
三大认证要求(120 天内提交建议):防止非法内容利用或传播(儿童性虐待材料、未经同意的亲密图像)
不使用显示有害偏见或缺乏治理机制的模型
不侵犯公民权利和自由(言论自由、投票权、人类自主权、免受非法歧视/拘留/监控)
独立审查联邦供应链风险指定:加州首席信息安全官将审查联邦政府对公司的供应链风险指定,如认为不当将发布指导确保州政府可继续采购,保留独立判断空间。
承包商责任改革:确保州政府不与被司法裁定非法损害隐私或公民自由的实体签约。
内部使用推进:促进员工访问经审查的 GenAI 工具,开发按生活事件组织的政府服务试点应用(灾难救济、创业、找工作),发布数据最小化工具包,要求对 AI 生成或操纵的图像/视频进行水印。
企业启示:政府采购不再是价格和功能比较,而是包含信任、安全、公民权利保护的综合评估
想进入政府市场需证明 AI 系统不仅技术先进且价值观正确
加州标准可能成为其他州甚至其他国家的参考 - 第二条 英国国家网络安全中心警告:前沿 AI 已能完成一半企业网络攻击步骤核心进展:英国国家网络安全中心(NCSC)和 AI 安全研究所(AISI)联合发布博客,披露前沿 AI 模型在网络攻击能力上的惊人进展。
评估方法: AISI 评估了 7 个 2026 年 3 月前发布的前沿 AI 模型,在企业网络和工业控制系统两个模拟环境中测试。
关键数据(32 步企业网络攻击,人类专家需 14 小时):Claude Opus 4.6(2026 年 2 月发布)平均完成 15.6 步(约 6 小时),无扩展处理时间平均 9.8 步
18 个月前最佳模型不到 2 步,现在完成一半以上
单次最佳运行完成 22/32 步
一次完整攻击尝试成本约 65 英镑
加速驱动因素:能力上限快速上升:2026 年初最佳模型完成步骤是 18 个月前的近 6 倍
成本持续下降:更多处理时间即可改善结果,限制因素是资金而非专业知识
当前局限性:专业知识差距(逆向工程、密码学、恶意软件开发),长时间操作失去上下文,结果不一致,但这些不是永久性障碍。
防御者优势:2026 年 3 月前模型活动会产生明显安全警报,相对容易检测(前提是有有效监控和响应能力);防御者能“塑造战场”,但这种优势不是保证的。
务实建议: AI 不会补偿薄弱安全基础但会放大优劣势,确保基线安全(准确资产清单、强大访问控制、安全配置、全面日志记录)。
企业启示:不要等 AI 能完成 100% 攻击步骤再行动,当它已能完成 50% 时就应假设攻击者在使用
投资基线安全和谨慎部署 AI 增强防御,在 AI 日益塑造网络风险环境时保持防御者优势
AI 增强的网络安全工具本身也是攻击面,需按 AI 安全实践规范设计和部署 - 第三条 纽约州长签署法案修订 RAISE 法案:加强前沿 AI 模型透明度和安全要求核心进展:2026 年 3 月,纽约州长签署参议院第 8828 号法案修订 RAISE 法案(负责任 AI 系统评估),增强对 AI 前沿模型开发者的透明度和安全要求,2027 年 1 月 1 日生效。
前沿模型定义:使用超过 10^26 整数或浮点运算的计算能力训练的基础模型(极高算力门槛,只有少数大型 AI 实验室能达到)。
透明度要求扩展:发布详细的前沿 AI 框架
纳入国家和国际标准
定义和评估灾难性风险阈值
记录缓解流程
披露治理结构和网络安全实践
解释第三方评估者使用
每年更新框架并证明重大变更合理性
事件报告义务:创建正式报告机制
关键安全事件 72 小时内报告
死亡或严重伤害紧迫威胁 24 小时内报告
允许提交修正报告
内部灾难性风险评估季度报告
与加州对比:纽约侧重事后监督和事件报告,加州侧重事前采购认证,但都试图让前沿 AI 更透明、更可问责。
企业启示:前沿 AI 开发者合规成本上升,需建立完整的风险评估、事件报告、治理披露体系
州级要求可能导致 50 个不同合规框架,呼吁联邦层面统一立法
透明度和事件报告从行业自律变为法定义务
💡 主编深度洞察:从抽象原则到具体机制的 AI 治理转型
- 政府采购作为价值观筛选器:市场塑造的新范式加州的行政令揭示了一个深刻的转变:政府不再仅仅是 AI 的监管者,而是通过采购成为市场行为的塑造者。这种“用钱投票”的逻辑比传统监管更有效——你可以选择不遵守某个技术标准并承担罚款,但你无法强迫政府向你采购。更重要的是,加州将“价值观正确”纳入采购标准,这意味着技术先进性不再是充分条件。防止非法内容传播、避免有害偏见、保护公民权利,这些曾经是 CSR 报告中的软性承诺,现在成为了进入政府市场的硬性门槛。加州还保留了对联邦供应链风险指定的独立审查权,这实际上是在技术主权和价值观主权之间划定边界。对企业来说,这意味着你需要为不同的政府市场准备不同的“价值观证明”——加州关注公民自由,欧盟关注数据保护,其他地区可能有其他优先事项。AI 治理正在从“一刀切”的全球标准,走向“因地制宜”的本地化价值观嵌入。
- 量化风险:从“AI 可能有风险”到“AI 已完成 50% 攻击步骤”英国 NCSC 和 AISI 的研究标志着 AI 风险评估从定性走向定量的关键转折点。过去我们说“AI 可能被用于网络攻击”,现在我们知道“Claude Opus 4.6 平均完成 15.6 步,成本 65 英镑”。这种精确度改变了风险沟通的方式:当你告诉董事会“AI 可能有风险”时,他们可能会说“我们再观察观察”;但当你说“攻击者用 65 英镑就能完成一半的攻击步骤,而我们的监控系统还停留在三年前”时,预算批准的速度会快得多。更重要的是,这个研究揭示了一个非对称性:能力上限快速上升(18 个月 6 倍进步),但成本持续下降(从专业知识门槛到资金门槛)。这意味着网络攻击正在从“精英黑客的艺术”变成“有钱就能买的服务”。防御者的结构性优势在于能“塑造战场”,但这种优势是脆弱的——如果你的基线安全薄弱,AI 只会让你更快地暴露在攻击之下。NCSC 的建议非常务实:不要追逐最新的 AI 防御工具,先把资产清单、访问控制、安全配置、日志记录这些基础做好。AI 会放大你的优势和劣势,如果基础是负分,再多 AI 加成也是负数。
- 透明度的制度化:从行业自律到法定义务的跨越纽约 RAISE 法案的修订代表了 AI 治理的另一个关键转变:透明度从“你应该做”变成“你必须做”。10^26 算力门槛的设定很聪明,它精准地圈定了前沿 AI 开发者(基本上就是 OpenAI、Anthropic、Google、Meta 等少数几家),避免了对整个 AI 生态系统的过度监管。72 小时关键事件报告、24 小时紧迫威胁报告、季度风险评估报告,这些时间线不是随意设定的,而是在“及时响应”和“充分调查”之间的平衡。与加州的采购认证相比,纽约的做法更侧重事后问责:你可以开发前沿模型,但当出现问题时,你必须报告,而且报告必须详细到足以让监管机构理解发生了什么。这种“透明度换自由”的交易,实际上是在为前沿 AI 开发划定一个可预测的监管边界。对开发者来说,挑战在于州级监管的碎片化:如果 50 个州都有类似但不完全相同的要求,合规成本会呈指数级上升。这也是为什么行业一直在呼吁联邦层面的统一立法——不是因为他们不想合规,而是因为他们不想为 50 个不同的合规框架建立 50 套系统。
📚 延伸阅读
- 加州州长办公室:Executive Order N-5-26: Trusted AI Procurement
- 英国国家网络安全中心:Why cyber defenders need to be ready for frontier AI
- DataGuidance:New York: Bill amending RAISE Act signed by Governor
📥 资源领取
欢迎关注我们的公众号“那一片数据星辰”
#AI治理 #加州 #纽约 #英国 #前沿AI #网络安全 #RAISE法案 #透明度 #事件报告 #数据合规 #AI 星辰电台

