欢迎收听《AI 星辰电台》。在通勤的 10 分钟里,我们带你快速浏览全球 AI 治理与数据合规的最新图景。本期节目聚焦监管从原则到细则的具体化:英国 ICO 发布自动化决策招聘指南草案,澳大利亚发布儿童在线隐私法典草案,两者都通过公众咨询邀请利益相关方参与规则制定。
🕒 节目导航
- 第一条 英国 ICO 发布自动化决策指南草案并启动公众咨询,聚焦招聘场景核心进展:2026 年 3 月,英国信息专员办公室(ICO)发布关于自动化决策(包括画像)的指南草案,配合 2025 年《数据使用和访问法案》,公众咨询截止 2026 年 5 月 29 日。
招聘场景调研:过去一年与 30 多家雇主接触,发现自动化决策通常应用于招聘流程早期阶段,雇主报告显著效率提升,但存在透明度不足、保障措施不完善、人类参与不一致、偏见监控实践缺失等问题。
16 家组织承诺改进: ICO 向 16 个可能使用自动化决策的组织发函,这些组织已承诺根据建议改进实践。
公众焦点小组发现:参与者对没有人类监督的自动化决策表示担忧,包括缺乏透明度和现有偏见可能被放大。
三项明确期望:主动监控偏见:定期测试偏见输出并缓解,采购时询问开发者的偏见测试,考虑每月偏见审查
对求职者保持透明:明确说明是否使用自动化决策并解释工作原理
解释申诉权利:告诉候选人如何质疑决策并要求人工审查
历史执法行动:2024 年审计了招聘行业的几家 AI 工具提供商和开发者,提出近 300 条明确建议改善合规性。
企业启示:自动化决策不是“用了就行”,需要持续监控、透明披露、保障申诉权利
如果在招聘中使用 AI 筛选简历或评估候选人,现在是审查系统的时机
每月偏见审查、采购时的开发者尽职调查,这些都是可操作的具体要求 - 第二条 澳大利亚发布儿童在线隐私法典草案:13 岁前已收集 7200 万条数据核心进展:2026 年 3 月 31 日,澳大利亚信息专员办公室(OAIC)发布儿童在线隐私法典草案,要求机构和组织在收集、使用或披露儿童个人信息前考虑儿童最佳利益,公众咨询至 2026 年 6 月 5 日,计划 2026 年 12 月 10 日注册。
惊人数据:隐私专员 Carly Kind 指出,到孩子 13 岁时已收集约 7200 万条数据,使其容易受到数据泄露、歧视、算法偏见和有害产品定向广告等风险伤害。
五大核心义务:收集、使用和披露个人信息必须符合儿童最佳利益
直接营销只有在获得同意、符合儿童最佳利益且信息直接从儿童处收集时才允许
赋予儿童更多权利和控制,包括要求销毁个人信息的权利
隐私通知和政策必须用清晰、易懂、适合年龄的语言编写
更强的同意机制,包括父母代表儿童同意时告知儿童
创新保护措施:要求在线服务在父母代表儿童同意收集信息时通知儿童,在其他用户(包括父母)跟踪其地理位置时通知儿童。
适用范围:覆盖儿童面临最高隐私风险的在线服务,包括儿童和青少年每天使用的大多数应用、游戏和网站,以及主要涉及儿童活动的在线服务,范围比社交媒体平台广泛得多(包括游戏、流媒体平台、教育工具)。
与现有措施互补:补充澳大利亚全球首创的社交媒体最低年龄义务(2025 年 12 月生效)。
参与式制定:自 2024 年议会通过法案以来,与儿童、年轻人、专家、父母和照顾者协商开发,并提供了针对不同年龄段的咨询材料(短指南、扩展指南、课程计划、工作坊材料)。
企业启示:如果应用、游戏或网站可能被儿童访问或主要涉及儿童活动,需在 2026 年 12 月前准备合规
“儿童最佳利益”不是抽象原则,而是需要在产品设计、数据收集、营销实践中具体落地的法定义务
父母同意时通知儿童、地理位置跟踪通知,这些都需要在产品界面和流程中实现 - 第三条 从英国到澳大利亚:监管从原则走向细则,从单向命令走向参与式制定共同趋势:两条新闻虽来自不同国家、关注不同场景,但都指向监管机构正在从原则走向细则,从事后处罚走向事前指导。
细则化特征:英国 ICO:不只说“应该公平”,而是说“每月偏见审查”、“采购时询问开发者偏见测试”、“告诉候选人如何申诉”
澳大利亚 OAIC:不只说“保护儿童隐私”,而是说“父母同意时通知儿童”、“地理位置跟踪通知”、“隐私政策用适合年龄的语言”
参与式监管:两个监管机构都选择公众咨询方式,邀请利益相关方(包括儿童本身)参与规则制定,既提高规则可接受性,也增强执行合法性。
企业启示:需要跟踪多个司法管辖区的指南草案和法典草案,参与公众咨询
合规不再是“等法律生效再说”,而是“在法律制定过程中就参与塑造”
参与规则制定的机会窗口正在打开,但合规的窗口期正在缩短
💡 主编深度洞察:参与式监管与可操作合规的新时代
- 从“你应该”到“你应该这样做”:可操作性的革命英国 ICO 的自动化决策指南和澳大利亚 OAIC 的儿童隐私法典,标志着监管指导从抽象原则到具体操作的质变。过去的监管指南往往充满“应该公平”、“应该透明”、“应该保护隐私”这样的原则性表述,企业读完后仍然不知道具体该做什么。但这次不同:ICO 说“每月进行偏见审查”,这是一个可以放进项目计划的具体任务;OAIC 说“父母同意时通知儿童”,这是一个可以在产品界面中实现的具体功能。这种可操作性的革命,实际上降低了合规的不确定性成本。企业不再需要花费大量资源去猜测“公平”到底意味着什么,而是可以直接对照清单逐项实施。但这也意味着监管机构的期望更加明确,违规的借口空间更小。当 ICO 明确说“应该每月偏见审查”时,如果你没做,就很难辩称“我们已经尽力了”。对合规团队来说,这是一个好消息也是一个挑战:好消息是你终于有了明确的行动指南,挑战是你需要说服业务部门投入资源去实施这些具体措施。
- 参与式监管:从被动接受到主动塑造的机会窗口两个监管机构都选择了公众咨询的方式,这不是形式主义,而是监管范式的转变。传统的监管是“监管机构制定规则-企业被动遵守-违规者被处罚”的单向流程。但参与式监管是“监管机构发布草案-利益相关方提供反馈-监管机构修订规则-企业实施”的双向互动。澳大利亚 OAIC 甚至邀请儿童本身参与咨询,并提供了针对不同年龄段的咨询材料,这种做法确保了规则的可接受性和合法性。对企业来说,这是一个难得的机会窗口:你可以在规则最终确定之前,提出你的关切、分享你的实践、影响规则的细节。比如,如果你认为“每月偏见审查”的频率过高,你可以在咨询中提出替代方案并提供数据支持。如果你认为“父母同意时通知儿童”在技术实现上有困难,你可以在咨询中说明并建议过渡期。但这个机会窗口是有时间限制的:英国 ICO 的咨询截止 5 月 29 日,澳大利亚 OAIC 的咨询截止 6 月 5 日。错过这个窗口,你就只能被动接受最终规则。对跨国企业来说,这意味着你需要建立一个系统来跟踪全球各地的监管咨询,评估哪些值得参与,准备高质量的反馈意见。
- 儿童最佳利益的可操作化:从道德原则到设计标准澳大利亚儿童在线隐私法典最有价值的贡献,是将“儿童最佳利益”这个抽象的道德原则,转化为可以在产品设计中实施的具体标准。“父母同意时通知儿童”、“地理位置跟踪时通知儿童”、“隐私政策用适合年龄的语言”,这些都是需要在用户界面、通知系统、文案设计中落地的具体要求。这种可操作化的意义在于,它将儿童保护从合规部门的责任,变成了产品团队、设计团队、内容团队的共同责任。当你的产品经理在设计地理位置功能时,他需要考虑“如何通知儿童有人在跟踪他们”;当你的 UX 设计师在写隐私政策时,她需要考虑“13 岁的孩子能看懂这个吗”;当你的家长控制功能团队在设计同意流程时,他们需要考虑“如何让孩子知道父母同意了什么”。这种跨团队的合规责任分担,实际上是在推动“隐私设计”(Privacy by Design)从口号变成实践。对企业来说,这意味着合规不再是法务部门的单打独斗,而是需要在产品开发的每个环节嵌入合规考量。如果你的产品可能被儿童使用,现在是时候审查你的设计流程,确保“儿童最佳利益”不是事后检查项,而是设计阶段的核心原则。
📚 延伸阅读
- 英国 ICO:自动化决策指南草案公众咨询
- 英国 ICO:自动化决策可以简化招聘流程——前提是有正确的保障措施
- 澳大利亚 OAIC:发布儿童在线隐私法典草案
📥 资源领取
欢迎关注我们的公众号“那一片数据星辰”
#AI治理 #英国 #澳大利亚 #ICO #OAIC #自动化决策 #招聘中AI #儿童隐私 #数据合规 #AI 星辰电台

