谷歌Deepmind之父哈萨比斯如何看待 AI 的未来最新观点

谷歌Deepmind之父哈萨比斯如何看待 AI 的未来

16分钟 ·
播放数4
·
评论数0

我们每天都被新模型刷屏:GPT-4、Gemini、各类榜单与评测像连续剧一样快速更新。热闹之外,真正值得追问的问题是:推动这一切的“总编剧”到底在想什么?以及,他认为通往下一代智能的路,究竟在哪里?

在近期的一次采访中,DeepMind 早期核心人物德米斯·哈萨比斯(Demis Hassabis)分享了他对人工智能未来的判断。

这次访谈的信息量很大,它不只是对技术路线的解释,更像一份“未来十年 AI 产业的底层逻辑说明书”:哪些方法还会继续奏效,哪些方法注定走不远;真正的瓶颈是什么;以及为什么 AI 既可能成为人类的终极工具,也可能变成必须严肃对待的风险源。

一、DeepMind 为什么重要

要理解哈萨比斯的观点,绕不开 DeepMind 这家公司。

DeepMind 2010 年在伦敦成立,2014 年被谷歌以约 4 亿英镑收购。今天许多面向公众的 AI 产品与能力都可以在不同程度上追溯到它的技术积累。但在“成为手机里各种 AI 功能的幕后英雄”之前,DeepMind 更像一个以科学探索为主轴的研究机构:它用一次次底层突破,把“AI 能做什么”的边界向外推。

访谈里提到的两个里程碑,具有象征意义:

·AlphaGo:在围棋上击败李世石,改变了大众对 AI 能力进展速度的直觉。许多人原本认为这种复杂度的博弈,至少还要十年。

·AlphaFold:攻克蛋白质折叠预测的关键难题。听起来学术,但直接影响新药研发的效率与路径,意味着 AI 不再只是一种“信息处理工具”,而可能成为“科学发现工具”。

因此,当 ChatGPT 出现、外界认为谷歌“慢了半拍”时,这段访谈强调:谷歌真正的底牌是 DeepMind 的长期积累,而 Gemini 的快速追赶也反映了这种积累的价值。这里的隐含判断是:AI 竞赛并非短期产品发布节奏的胜负,而是长期研究与工程体系的厚度对抗。

二、主线问题:AI 的能力有没有天花板?

访谈把话题切入到大众最关心的点:AI 的能力是否存在上限?

当下主流路径,是哈萨比斯提到的“规模法则”(scaling laws):不断加数据、加算力、堆更大的模型,能力就会提升。它听起来粗暴,但过去几年确实有效,以至于产业形成了一种近乎共识的叙事:大力出奇迹。

哈萨比斯的判断更细:

1.规模法则的边际回报在放缓。不再像早期那样“模型翻倍、能力飞跃”,但回报仍然可观。

2.未来几年内,继续扩规模仍然有效。也就是说,资本开支、算力竞赛还不会突然停下来。

3.但仅靠规模法则,可能永远无法抵达真正的 AGI。这是访谈的关键转折:把整个行业从“扩规模即可通用智能”的乐观叙事,拉回到“缺失关键能力”的现实问题。

一句话概括就是:规模法则是必要条件,但不是充分条件。

三、为什么扩规模不够?

为了说明“为什么不够”,哈萨比斯提出了一个形象的概念:锯齿状智能(Jagged Intelligence)。

“锯齿状”的意思是能力分布高度不均匀:

AI 在某些任务上锋利到可怕——写诗、写代码、总结知识、对话表达,甚至达到顶尖专家水平;但在另一些任务上又笨得出奇——缺乏常识性的物理理解、长程规划、持续学习与自我校正能力,做稍复杂的计划就可能漏洞百出。

这种不均衡意味着:你看到的“聪明”,往往是局部能力的极致;而一旦需要跨场景、跨时间、跨因果链条的推理,系统就会暴露结构性短板。

访谈给出的结论是:AI 目前缺的不是“知识量”,而是更接近人类认知结构的三类能力:

·持续学习:不是一次训练定型,而是能在运行中更新与修正。

·原创性思考:不是拼接文本模式,而是形成新解释、新假设。

·长期规划:能跨多步目标做策略性推演并保持一致性。

这为下一段的“新方向”埋下伏笔。

四、通往下一代智能:世界模型(World Models)

哈萨比斯认为,补上上述短板的关键路径之一,是发展世界模型。

访谈用一个非常好懂的类比来解释它与 LLM 的区别:

·LLM 像“博学的文科生”:通过海量文本/图像学习语言规律与模式,擅长表达与归纳;它知道“太阳东升西落”这句话常出现,因此会这么说。

·世界模型像“理科生/物理学家”:不仅知道现象,还要理解背后的机制;它在内部建立一个“真实世界的模拟器”,能够推演因果关系——比如“杯子从桌上被推下去,会因重力下落并摔碎”。

这句话非常关键:世界模型强调因果与可推演性,而不仅是相关性与模式匹配。

在此基础上,哈萨比斯提出一个判断:未来的 AGI 很可能不是单一巨大 LLM,而是:

·LLM 负责沟通与知识(语言接口、工具调用、信息组织)

·世界模型负责理解与推理(因果推演、规划、模拟与决策)

换句话说,AGI 更可能是“多模块系统的协同”,而不是“一个更大的聊天模型”。

五、时间表与瓶颈:5–10 年,以及两大物理约束

访谈里最抓人的信息之一,是哈萨比斯对 AGI 时间窗口的判断:大约 5 到 10 年。这在行业内部并非共识,因为也有顶尖学者认为缺少根本性理论突破,距离仍非常遥远。

但无论时间表如何,他强调实现路径会被现实约束牵引,其中最核心的是两大“物理瓶颈”:

1.芯片(算力供给)

高端计算芯片成为全球硬通货,供不应求,决定了训练与推理的上限。

2.能源(电力与基础设施)

巨型数据中心耗电惊人。在他的表述里,能源将等同于智能:谁掌握能源,谁就掌握智能上限。

这带来一个看似悖论的循环:想要更强 AI,需要更多算力与数据中心;更多数据中心意味着更高能耗;而现实世界正面临能源与气候约束。

六、AI 的“自我解瓶颈”:蒸馏与科学加速

面对上述悖论,哈萨比斯提出一个更具“螺旋上升”意味的观点:AI 本身可能就是解决瓶颈的钥匙。

访谈给出两条路径:

1)效率路径:用 AI 优化 AI(蒸馏)

蒸馏(distillation)的直观理解是:

先训练一个成本极高、能力极强的“宗师模型”,再让它“手把手教”更小的“学徒模型”。最终学徒模型体量更小、能耗更低,但能力能接近宗师的大部分水平。

它的意义在于:把昂贵能力“压缩”到更便宜的运行形态,从而缓解算力与能耗的压力。

2)价值路径:用 AI 加速科学突破

更长远、也更宏大的方向,是把 AI 用作“科学发现引擎”:

·新材料筛选与设计(提升太阳能电池效率等)

·核聚变装置优化(触及“终极能源”的工程瓶颈)

·药物研发提速(与 AlphaFold 路线一脉相承)

这一段的核心不是“AI 会不会替代人”,而是:AI 能否成为人类解决重大问题的通用加速器。这也解释了他为何对 AI 同时持乐观与谨慎态度。

七、风险视角:极度乐观下的“极限运动员式谨慎”

访谈并没有停留在技术浪漫主义,而是把风险明确拆成两类:

1.恶意使用风险

工具越强,落入恶意使用者手中,破坏力越可能指数级上升。

2.失控风险(对齐问题)

随着系统更自主、更像“智能体”(Agent),能够自设目标、执行计划,如何保证其目标与人类根本利益一致,成为结构性难题。访谈提到经典的“回形针思想实验”,用以说明“看似无害目标”也可能导向灾难性后果。

哈萨比斯的回应是:DeepMind 从成立之初就把安全与伦理放在核心位置,采用科学方法研究约束与控制,而不是等到系统强大到不可控时再补救。他承认不存在万无一失的保证,但强调行业不能“蒙眼狂奔”。

这一段实际上构成了他整体态度的定义:技术乐观,但不浪漫;追求突破,但不放弃治理。

八、现实世界的三重竞争:公司、资本与地缘政治

访谈最后把 AI 从技术问题拉回到现实世界的“竞争结构”,并拆成三层:

1)公司层面:巨头之间的贴身肉搏

一年前舆论说谷歌被 OpenAI 打了个措手不及,但 Gemini 的进展说明:对巨头而言,只要战略上足够重视,研发深度与工程能力依然恐怖。竞争不是一次发布会,而是体系能力的对抗。

2)资本层面:泡沫与“家底优势”并存

他承认私募市场存在“几乎没有产品却估值离谱”的泡沫。但与此同时,谷歌的现金流与资产负债表带来“超级大国优势”——可以承受几十亿乃至上百亿美元的长期投入;而 OpenAI、Anthropic 等明星创业公司更依赖持续融资,一旦市场遇冷,资金链弹性较弱。

这里的核心判断是:在算力密集型赛道,资本结构本身就是竞争力。

3)地缘政治层面:中美竞赛与创新文化

他提出一个可能让人意外的观察:中国顶尖模型与西方前沿的差距可能已缩小到“几个月”。但他紧接着强调更深的分野:

中国公司已经证明“快速追赶与复制优化”的能力,但尚未充分证明“定义下一代架构、做根本性原创创新”的能力。这更多是科研文化与创新环境的问题——容忍失败、鼓励冒险式探索,比砸钱与堆人更难。

结语:当 AI 既是能源消耗者,也是解决方案

访谈收束在一个值得反复咀嚼的悖论上:

AI 一方面可能成为这个时代最大的能源消耗者与风险来源之一;另一方面,它又可能是解决能源危机、气候变化、疾病等重大挑战的“终极工具”。

因此,问题不再只是“AI 能不能更聪明”,而是:

·我们能否从单一的“堆规模”叙事,走向更深层的“理解与推理”路径?

·我们能否在芯片与能源的物理约束下,重塑 AI 的效率与价值创造方式?

·我们又能否在加速冲刺时,建立足够稳健的安全与治理框架?

当探索的脚步越快,风险的缰绳就越需要被认真握紧。AI 的未来,既取决于模型,也取决于我们选择怎样的制度、资本结构与创新文化来承载它。