对话清华大学教授刘嘉:编程的本质不是写代码 | 万有引力《万有引力》

对话清华大学教授刘嘉:编程的本质不是写代码 | 万有引力

105分钟 ·
播放数208
·
评论数1

🎙️ 本期导读

当 AI 能写代码 ,程序员就又面临“取代”危机。

本期《万有引力》,我们邀请到了清华大学基础科学讲席教授、心理与认知科学系主任刘嘉。他表示:“我从来不认为编程的本质是在写代码(Code),编程的本质是通过机器来解决问题,它的核心是问题解决。编程高手是在想怎么通过一条有规则的方式,把一个复杂问题给解决掉,计算机程序只是他的工具而已。Cursor 本身不具有解决复杂问题的能力,它只是执行者。人的这种复杂问题解决能力,是没有被 AI 所取代的。”但他同时也警示:“知识密集型的岗位会消失掉90%、95%,但它会让TOP 5%具有稀缺性的人活下来。”

这不仅仅是一场关于技术的硬核对话,更是一份 AI 时代的生存指南。刘嘉老师用“脑科学”这把手术刀,剖开了 AGI 的本质,也为我们在这个充满不确定性的时代,提供了一套像大模型一样自我进化的“人生算法”。

👨‍🏫 嘉宾介绍

刘嘉

  • 清华大学基础科学讲席教授
  • 清华大学心理与认知科学系主任
  • 长期从事脑科学与人工智能的交叉研究,致力于探索通用人工智能(AGI)的生物学基础与实现路径。

🎧 核心话题

01. 一次跨越 20 年的“错过”与“重逢”

  • 1997 年,刘嘉远赴 MIT 求学,向“人工智能之父”马文·明斯基问道,却被劝退:“AI 寒冬已至,不如做脑科学。”
  • 这一别就是 20 年,让他完美错过了深度学习的爆发期。
  • 2016 年 AlphaGo 之后,他为何决定重返 AI?这段“弯路”如何让他获得了更底层的洞察?

02. 莫拉维克悖论:为什么 AI 干不了体力活?

  • 大脑皮层(推理)vs 小脑(运动):进化的时间尺度决定了模拟的难度。
  • 前额叶只有 300 万年历史,功能最弱,最好模拟;而主管运动的小脑经过了几亿年进化,密度最高,难以攻克。
  • 金句:“推理、AI Coding 都只是模仿生物智能万里长征中迈出的第一步。”

03. Scaling Law:智能的第一性原理

  • 为什么“大”永远是对的?从生物进化看,人类大脑变大是智慧产生的必要条件。
  • 对 Scaling Law 的质疑往往源于资源不足的“酸葡萄”心理。
  • 刘嘉的“苦涩教训”:曾以为 GPT-3 是“傻大粗”,后来才发现自己忽略了智能的第一性原理。

04. 通往 AGI 的路线之争:为何 NLP 最终胜出?

  • 强化学习(模仿行为)、脑模拟(模仿神经元)、NLP(模仿思维),三条路线为何只有 NLP 跑通了?
  • 因为 NLP 压缩了人类已有的所有知识(Known Unknowns),而其他两条路面临数据匮乏或生物机制的“未知的未知”。

05. 学术界 vs 工业界:不同的使命

  • 学术界做 0 到 1:探索不存在的路径,允许失败,寻找颠覆性创新。
  • 工业界做 1 到 100:追求极致的工程化与商业落地,赢者通吃,残酷且不容共存。

06. 未来生存指南:95% vs 5%

  • 知识变得不再值钱:大模型让知识获取成本趋近于零。
  • 残酷的预测:95% 的知识密集型岗位(如普通程序员、初级律师)将消失;只有 Top 5% 具备“从 0 到 1”创造力的人能活下来。
  • 人生优化算法
    目标函数:定义你的人生目标。
    随机梯度下降:不断试错,快速迭代。
    注意力机制:在这个噪声世界中,只关注高质量的数据和人。

💡 适合谁听

  • 对 AI 底层逻辑和未来发展感到困惑或焦虑的技术从业者。
  • 关注 AGI、脑科学、心理学交叉领域的探索者。
  • 希望在 AI 时代找到个人定位与进化路径的普通人。

在这里,我们不贩卖焦虑,只提供看透本质的理性思考。欢迎收听本期节目,一起探索如何与 AI 共进化。

展开Show Notes
郭相谅
郭相谅
2026.2.25
评价这个观点:Scaling Law是智能的第一性原理,根据这个原理,以及脑科学的知识,人类大脑变大是智慧产生的必要条件。
这是一个非常深刻且富有争议的观点,触及了人工智能与神经科学交汇处的核心问题。我们可以从合理性和局限性两个维度来深度评价这个观点。
第一部分:这个观点的合理性在哪里?
这个观点之所以听起来很有说服力,是因为它抓住了当前AI发展和脑科学中的两个关键事实:
1. Scaling Law 在AI领域的有效性
在深度学习领域,Scaling Law(规模定律) 已经被反复验证:只要增加模型的参数量、数据量和算力,模型的智能表现就会可预测地提升。GPT系列从1亿参数到1万亿参数的跃迁,带来的确实是质的飞跃。这让很多人相信:“更大 = 更聪明” 是一个朴素且有效的真理。
2. 脑科学中的“规模证据”
从进化史看,人类智能的飞跃确实伴随着大脑的显著扩大:
- 南方古猿的大脑约400-500ml
- 能人(最早制造工具的人类)约600-700ml
- 智人(现代人)约1300-1500ml
- 尼安德特人的大脑甚至比我们还大
在哺乳动物中,脑容量与认知能力的正相关确实存在——大象和鲸鱼的大脑比我们大,它们也确实表现出复杂的社会行为和解决问题的能力。
所以,从表面证据看,把规模定律视为智能的“必要条件”,似乎站得住脚。
第二部分:这个观点的局限性在哪里?
问题出在“必要条件”这个词上,以及它对智能本质的简化。我们可以从三个维度来反驳:
1. 规模是“必要条件”,但不是“充分条件”
如果大脑变大是智能的唯一钥匙,那么:
- 抹香鲸的大脑(约8000g,是我们的5倍) 应该比我们聪明5倍,但它们没有发展出文明。
- 大象的大脑(约5000g) 神经元数量远超人类,但它们没有造出火箭。
这说明:规模必须搭配“结构效率”。人脑真正的优势不是“大”,而是在有限体积内通过折叠皮层、高度模块化和高效连接实现了更高的“性价比”。我们的大脑只有1.5公斤,消耗20瓦功率,就能完成顶级智能;而AI模型动辄消耗兆瓦级电力,才勉强模仿我们的部分能力。
结论:规模是燃料,但架构是引擎。
2. Scaling Law 正在遭遇“收益递减”
2024-2025年的AI行业已经在讨论一个现象:单纯堆规模的边际效益正在下降。
- GPT-5的训练传闻屡屡受挫,说明不是简单地加参数就能解决问题。
- 业界正在转向“测试时扩展”和“推理时计算”——也就是让模型在思考时多花算力,而不是一味扩大预训练规模。
这意味着:Scaling Law 可能只是通往智能的“第一阶段”,下一阶段需要的是“算法效率”的突破,而不是规模的无限膨胀。
3. 智能的“涌现”需要的不只是规模,还有“结构”和“约束”
脑科学告诉我们一个反直觉的事实:人类智能的诞生,恰恰是因为大脑受到了“物理约束”。
- 人类婴儿出生时大脑未发育完全,必须在与社会互动中“长”出神经网络
- 有限的颅骨体积迫使神经元必须高效连接、优胜劣汰
- 身体的限制(能耗、热量)迫使大脑进化出“节能模式”
如果没有这些约束,单纯把大脑放大十倍,可能产生的不是超级智能,而是超级混乱。
AI领域也有类似发现:纯粹的Transformer架构无限放大,会遇到幻觉、逻辑断裂等问题。这就是为什么现在的研究方向开始回归“符号主义”的某些思想,试图给神经网络加上“结构约束”。
第三部分:一个更平衡的表述
基于以上分析,我们可以对原观点做一个修正:
“规模是智能涌现的必要条件之一,但绝非第一性原理。智能的第一性原理,或许是在‘规模’的基础上,通过‘高效的结构’、‘与环境的互动’、以及‘物理约束下的优化’,涌现出的适应性行为。”
用一句话总结:没有规模,智能很难涌现;只有规模,智能走不远。
对企业家和管理者的启示
这个讨论其实有很强的现实意义:
1.不要迷信“大”:无论是企业的规模,还是投入的资源,“更大”不一定意味着“更强”。就像人脑和大象大脑的区别,关键在于结构和效率。
2.关注“连接质量”而非“节点数量”:人脑的智能来自860亿个神经元之间百万亿级的连接。企业真正的竞争力,也不在于有多少员工、多少部门,而在于这些单元之间能否高效协同、产生“涌现”。
3.“约束”有时是好事:人脑因为受限于颅骨才更高效。企业在资源有限的情况下,反而能倒逼出创新和效率。完全没有约束的扩张,往往带来的是混乱而非智能。