
本期节目主要讨论AI如何被讲述、被理解、被接受,以及被信仰。
这两天,李飞飞领导的斯坦福大学以人为本人工智能研究所(Stanford HAI)发布了《2025 年人工智能指数报告》,这份长达 456 多页的报告显示,在2024年,AI更大程度地融入到了日常生活中。
全球的科技政策制定者们不再只是在讨论人工智能,更积极地投资人工智能。巴黎行动峰会之后,安全不再是AI治理领域最核心的议题。而为了抢夺全球AI发展的先发优势,各国科技公司也开启了“Beta即推送”的竞赛。
可以说,半成品是我们的时代症候群:人们被迫接受尚未成熟的产品、系统和服务,与之共存,并承担代价,进而加强社会结构性的焦虑。
这是一场迟来的节目介绍,也是一个邀请。我们从一个牧区少年的故事讲起,穿越政策、商业与哲学的边界,进而分析AI的前沿风险概念为何被提出?为何“安全”成为科技主流政策讨论的遮蔽?又是谁制造了“未来风险”的想象。

本期主播
Zhuoran:AI治理研究者,重点关注科技法和STS领域,拥有财经媒体和云计算&AI行业的交叉从业背景,并参加过多个AI Safety治理研究项目。
📘
内容目录
00:17 一个问题的产生:谁在主导AI的叙事?这是认知之争还是权力之争?
01:07 拉图尔的警示:我们的二元思维陷阱
03:09 技术焦虑:登船还是被淹没?
04:26 "半成品社会"的来临:AI的新应用为何能在短时间内风靡全球,甚至存在不成熟的情况被广泛推广?
05:45 入场:技术乌托邦背后具体的人:14岁藏族少年的故事
09:28 一支打动我的科技广告:Behind the Mac
10:46 《幽灵工作》作者告诉我:什么是创新的基础?
12:44 技术性消失如何将技术塑造成奇迹,如何使人类劳动变得隐形
14:09 前沿AI风险的提出:AI实验室们的议程设置
17:05 红队报告的惊人发现:AI能力的失控边界
揭秘Anthropic等公司内部红队测试的震撼结果:最新AI模型已在某些领域超越人类专家能力,生物安全测试结果令人不安,暴露出技术发展的失控潜力。
18:37 全球AI治理联盟的崩塌
从英国布莱切利峰会到巴黎行动峰会,安全一词从标题中消失,美欧英同盟破裂。
20:00 模型竞赛,一个字:卷
21:29 "前沿AI风险"如何塑造政策真空?
23:15 云计算巨头:AI革命背后真正的权力持有者
24:25 北大人工智能研究院朱松纯:AI叙事存在认知偏差,最难解决的问题是人文学科关注的社会复杂系统。
26:24 存在风险叙事的真相:源自顶尖科学家的担忧
28:33 如果海德格尔活着,会如何批判硅谷?
31:25 AI创业者是当代“奥本海默”吗?科技精英的道德幻觉
34:15 智能概念的哲学革命:从人类中心到宇宙尺度
35:45 意识与智能的解构:AI的存在主义挑战
39:57 可解释性AI:我们不够重视的关键研究领域
40:34 Stop Sign停车标志实验:自动驾驶到底能和人类一样看懂路标吗?
42:56 破除单一叙事:重塑AI讨论的多元声音
44:13 重启对话:技术即人
📘
本期提到的关键概念
- Noema:意识活动所指向的对象或内容,即经验的意义部分。
- Noesis:与Noema相对应,Noesis指的是意识活动本身,即赋予经验意义的过程或行为。
- Hylomorphic Model:认为任何物理实体都是形式(Form)与质料(Matter)的结合。形式赋予事物其特性,质料则是构成事物的材料。
- SETI(搜寻地外智能):指的是寻找地外智慧生命存在证据的科学努力,主要通过接收和分析来自太空的信号来探测可能的外星文明。
- Frontier AI Risk:高度先进的基础模型可能具备的危险能力,足以对公共安全构成严重风险。
- Red Team(红队):在人工智能安全领域,红队指的是通过模拟真实世界攻击来测试AI系统的防御能力,以发现和修复潜在的漏洞。
- 可解释性AI:指一套方法和流程,使人类用户能够理解和信任机器学习算法的结果和输出,旨在提高AI决策过程的透明度。
- AI Agent:指能够自主执行任务、进行决策,并与环境交互的人工智能系统或程序,通常用于完成特定的目标或任务。
- 技术性消失:指人类劳动在技术包装下被“隐形化”的过程,即技术的发展使得背后的人类劳动变得不可见或被忽视。
- 《悬崖》(The Precipice):由哲学家托比·奥德(Toby Ord)撰写的书籍,探讨了人类在未来可能面临的生存风险,以及如何确保人类文明的长期存续。
- 《幽灵工作》(Ghost Work):由玛丽·L·格雷(Mary L. Gray)和西达斯·苏里(Siddharth Suri)合著,揭示了在数字经济中,被技术平台隐藏起来的大量临时工和零工劳动者的现状,探讨了他们的工作条件和社会影响。
- 去蔽:让被遮蔽的存在重新显现出来,从而通向更本真的理解。
👤
提到的人物
- Bruno Latour:科学社会学与“行动者网络理论”提出者
- Geoffrey Hinton、Yoshua Bengio:AI领域“教父”级人物,积极参与AI伦理与风险讨论
- 朱松纯:北京大学AI研究院教授,提醒AI从学术问题转为社会问题的认知挑战
- 朱啸虎:著名投资人
- Mary Gray:《幽灵工作》作者,微软研究院研究员
- Amba Kak:科技政策研究所AI Now执行董事
- Sarah Walker:天体物理学家
- Benjamin Bratton:加州大学圣地亚哥分校的技术哲学与思辨设计教授
📚
参考资料
- Rees, T. (2025). Why AI Is A Philosophical Rupture. Noema. Retrieved from www.noemamag.com
- Fernandes, E., Evtimov, I., Kohno, T., et al. (2019). In London? See our work on Adversarial Machine Learning at the Science Museum. Tech Policy Lab, University of Washington. Retrieved from techpolicylab.uw.edu
- OpenAI. (2023). Frontier AI Regulation: Managing Emerging Risks to Public Safety. OpenAI. Retrieved from openai.com OpenAI+1OpenAI+1
- Helfrich, G. (2024). The Harms of Terminology: Why We Should Reject So-called “Frontier AI”. AI and Ethics. Retrieved from link.springer.com SpringerLink+1SpringerLink+1
- Anthropic. (2025). Progress from our Frontier Red Team. Anthropic. Retrieved from www.anthropic.com Home
请注意,第4条参考文献指出,“前沿AI风险”概念最初由人类未来研究所(FHI)的研究人员提出,尽管未直接提及OpenAI、DeepMind等人工智能实验室的名称,但事实上,该论文在OpenAI的网站上明确表示是由OpenAI独立委托完成。

📚
BGM:
片头:Ivano Palma - Il viaggio
片尾:Lonely Man - Alex Hamlin

- 小宇宙:智幻时刻Fungimind
- Apple Podcasts:智幻时刻Fungimind
- QQ音乐:智幻时刻Fungimind
- Spotify:智幻时刻Fungimind
- Email: Fungimind@163.com
- 小红书:Fungimind_AI治理蘑菇


讲得好赞,对AI技术发展多了新的理解与审视!