🎙️ 本期导读
当 AI 能写代码 ,程序员就又面临“取代”危机。
本期《万有引力》,我们邀请到了清华大学基础科学讲席教授、心理与认知科学系主任刘嘉。他表示:“我从来不认为编程的本质是在写代码(Code),编程的本质是通过机器来解决问题,它的核心是问题解决。编程高手是在想怎么通过一条有规则的方式,把一个复杂问题给解决掉,计算机程序只是他的工具而已。Cursor 本身不具有解决复杂问题的能力,它只是执行者。人的这种复杂问题解决能力,是没有被 AI 所取代的。”但他同时也警示:“知识密集型的岗位会消失掉90%、95%,但它会让TOP 5%具有稀缺性的人活下来。”
这不仅仅是一场关于技术的硬核对话,更是一份 AI 时代的生存指南。刘嘉老师用“脑科学”这把手术刀,剖开了 AGI 的本质,也为我们在这个充满不确定性的时代,提供了一套像大模型一样自我进化的“人生算法”。
👨🏫 嘉宾介绍
刘嘉
- 清华大学基础科学讲席教授
- 清华大学心理与认知科学系主任
- 长期从事脑科学与人工智能的交叉研究,致力于探索通用人工智能(AGI)的生物学基础与实现路径。
🎧 核心话题
01. 一次跨越 20 年的“错过”与“重逢”
- 1997 年,刘嘉远赴 MIT 求学,向“人工智能之父”马文·明斯基问道,却被劝退:“AI 寒冬已至,不如做脑科学。”
- 这一别就是 20 年,让他完美错过了深度学习的爆发期。
- 2016 年 AlphaGo 之后,他为何决定重返 AI?这段“弯路”如何让他获得了更底层的洞察?
02. 莫拉维克悖论:为什么 AI 干不了体力活?
- 大脑皮层(推理)vs 小脑(运动):进化的时间尺度决定了模拟的难度。
- 前额叶只有 300 万年历史,功能最弱,最好模拟;而主管运动的小脑经过了几亿年进化,密度最高,难以攻克。
- 金句:“推理、AI Coding 都只是模仿生物智能万里长征中迈出的第一步。”
03. Scaling Law:智能的第一性原理
- 为什么“大”永远是对的?从生物进化看,人类大脑变大是智慧产生的必要条件。
- 对 Scaling Law 的质疑往往源于资源不足的“酸葡萄”心理。
- 刘嘉的“苦涩教训”:曾以为 GPT-3 是“傻大粗”,后来才发现自己忽略了智能的第一性原理。
04. 通往 AGI 的路线之争:为何 NLP 最终胜出?
- 强化学习(模仿行为)、脑模拟(模仿神经元)、NLP(模仿思维),三条路线为何只有 NLP 跑通了?
- 因为 NLP 压缩了人类已有的所有知识(Known Unknowns),而其他两条路面临数据匮乏或生物机制的“未知的未知”。
05. 学术界 vs 工业界:不同的使命
- 学术界做 0 到 1:探索不存在的路径,允许失败,寻找颠覆性创新。
- 工业界做 1 到 100:追求极致的工程化与商业落地,赢者通吃,残酷且不容共存。
06. 未来生存指南:95% vs 5%
- 知识变得不再值钱:大模型让知识获取成本趋近于零。
- 残酷的预测:95% 的知识密集型岗位(如普通程序员、初级律师)将消失;只有 Top 5% 具备“从 0 到 1”创造力的人能活下来。
- 人生优化算法:
目标函数:定义你的人生目标。
随机梯度下降:不断试错,快速迭代。
注意力机制:在这个噪声世界中,只关注高质量的数据和人。
💡 适合谁听
- 对 AI 底层逻辑和未来发展感到困惑或焦虑的技术从业者。
- 关注 AGI、脑科学、心理学交叉领域的探索者。
- 希望在 AI 时代找到个人定位与进化路径的普通人。
在这里,我们不贩卖焦虑,只提供看透本质的理性思考。欢迎收听本期节目,一起探索如何与 AI 共进化。

