对话清华大学教授刘嘉:编程的本质不是写代码 | 万有引力《万有引力》

对话清华大学教授刘嘉:编程的本质不是写代码 | 万有引力

105分钟 ·
播放数75
·
评论数0

🎙️ 本期导读

当 AI 能写代码 ,程序员就又面临“取代”危机。

本期《万有引力》,我们邀请到了清华大学基础科学讲席教授、心理与认知科学系主任刘嘉。他表示:“我从来不认为编程的本质是在写代码(Code),编程的本质是通过机器来解决问题,它的核心是问题解决。编程高手是在想怎么通过一条有规则的方式,把一个复杂问题给解决掉,计算机程序只是他的工具而已。Cursor 本身不具有解决复杂问题的能力,它只是执行者。人的这种复杂问题解决能力,是没有被 AI 所取代的。”但他同时也警示:“知识密集型的岗位会消失掉90%、95%,但它会让TOP 5%具有稀缺性的人活下来。”

这不仅仅是一场关于技术的硬核对话,更是一份 AI 时代的生存指南。刘嘉老师用“脑科学”这把手术刀,剖开了 AGI 的本质,也为我们在这个充满不确定性的时代,提供了一套像大模型一样自我进化的“人生算法”。

👨‍🏫 嘉宾介绍

刘嘉

  • 清华大学基础科学讲席教授
  • 清华大学心理与认知科学系主任
  • 长期从事脑科学与人工智能的交叉研究,致力于探索通用人工智能(AGI)的生物学基础与实现路径。

🎧 核心话题

01. 一次跨越 20 年的“错过”与“重逢”

  • 1997 年,刘嘉远赴 MIT 求学,向“人工智能之父”马文·明斯基问道,却被劝退:“AI 寒冬已至,不如做脑科学。”
  • 这一别就是 20 年,让他完美错过了深度学习的爆发期。
  • 2016 年 AlphaGo 之后,他为何决定重返 AI?这段“弯路”如何让他获得了更底层的洞察?

02. 莫拉维克悖论:为什么 AI 干不了体力活?

  • 大脑皮层(推理)vs 小脑(运动):进化的时间尺度决定了模拟的难度。
  • 前额叶只有 300 万年历史,功能最弱,最好模拟;而主管运动的小脑经过了几亿年进化,密度最高,难以攻克。
  • 金句:“推理、AI Coding 都只是模仿生物智能万里长征中迈出的第一步。”

03. Scaling Law:智能的第一性原理

  • 为什么“大”永远是对的?从生物进化看,人类大脑变大是智慧产生的必要条件。
  • 对 Scaling Law 的质疑往往源于资源不足的“酸葡萄”心理。
  • 刘嘉的“苦涩教训”:曾以为 GPT-3 是“傻大粗”,后来才发现自己忽略了智能的第一性原理。

04. 通往 AGI 的路线之争:为何 NLP 最终胜出?

  • 强化学习(模仿行为)、脑模拟(模仿神经元)、NLP(模仿思维),三条路线为何只有 NLP 跑通了?
  • 因为 NLP 压缩了人类已有的所有知识(Known Unknowns),而其他两条路面临数据匮乏或生物机制的“未知的未知”。

05. 学术界 vs 工业界:不同的使命

  • 学术界做 0 到 1:探索不存在的路径,允许失败,寻找颠覆性创新。
  • 工业界做 1 到 100:追求极致的工程化与商业落地,赢者通吃,残酷且不容共存。

06. 未来生存指南:95% vs 5%

  • 知识变得不再值钱:大模型让知识获取成本趋近于零。
  • 残酷的预测:95% 的知识密集型岗位(如普通程序员、初级律师)将消失;只有 Top 5% 具备“从 0 到 1”创造力的人能活下来。
  • 人生优化算法
    目标函数:定义你的人生目标。
    随机梯度下降:不断试错,快速迭代。
    注意力机制:在这个噪声世界中,只关注高质量的数据和人。

💡 适合谁听

  • 对 AI 底层逻辑和未来发展感到困惑或焦虑的技术从业者。
  • 关注 AGI、脑科学、心理学交叉领域的探索者。
  • 希望在 AI 时代找到个人定位与进化路径的普通人。

在这里,我们不贩卖焦虑,只提供看透本质的理性思考。欢迎收听本期节目,一起探索如何与 AI 共进化。