科学界AlphaGo时刻,AI驱动的科学发现
10分钟
·
4
·
0
DeepMind发布AlphaEvolve | 优化56年矩阵乘法 | 改进300年几何难题 | 提高Gemini训练效率 | 进化算法 | LLM | 人类反馈 |
Speaker A: 你好。
Speaker A: 哎你还记得 AlphaGo 那个那个特别神的围棋第37手吗?
Speaker B: 嗯,记得,当时很轰动。
Speaker A: 对吧?
Speaker A: 那你想像一下,要是 AI 不光能在游戏里走出这种妙手,还能在数学、科学、甚至那个代码优化上,找到我们一直没想到的新方法呢?
Speaker B: 这个嘛,其实就是我们今天要聊的重点了。我们深入看一看谷歌 DeepMind 最新的这个 AlphaEvolve。
Speaker A: AlphaEvolve?
Speaker B: 嗯,对,扒了相关的技术论文摘要,官方发布,还有网上的各种讨论,像 Reddit 上的,还有专家怎么看,甚至一些开源项目。
Speaker A: 那我们今天的目标是?
Speaker B: 就是帮你弄明白,这个 AlphaEvolve 它到底是个啥,怎么工作的,关键是它发现新东西的这个本事,对我们未来可能预示着什么。
Speaker A: 听起来就很吸引人。那它究竟是什么?AlphaEvolve?
Speaker B: 嗯,简单说,它是个 AI 智能体,背后是谷歌的 Gemini 大模型在驱动,然后呢,它还结合了进化算法。
Speaker A: 进化算法?
Speaker B: 对。最核心的是它的发现能力,就是说,它能自己去找,还能优化出全新的算法。这个是 DeepMind 的 Pushmeet Kohli 团队搞出来的。
Speaker A: 等等,AI 自己发现新算法?这,这听着也太超前了吧?它是怎么做到的?
Speaker B: 核心机制啊, 可以叫做一个进化循环。
Speaker A: 进化循环?
Speaker B: 嗯,你想啊,第一步,大语言模型,就是 LLM,它像个创意引擎,先生成一堆初始的代码方案。
Speaker A: 一堆点子,是吧?
Speaker B: 对,一堆点子。然后,有个自动评估器,它会来测试这些方案,给它们打分。
Speaker A: 打分?用什么标准呢?
Speaker B: 看情况。比如论文里提到的金融策略,就用那个信息系数之类的指标,看它预测的准不准,效果好不好。
Speaker A: 哦,有点像物竞天择。
Speaker B: 没错,就是这个意思,优胜劣汰。表现好的方案呢,就能活下来,而且还能变异。
Speaker A: 变异?怎么变?还是靠 LLM?
Speaker B: 对。这里,LLM 就又出场了。它不是随机乱改,而是像个聪明的指导者,根据现在这个不错的代码,提出更智能、更有方向的修改建议。
Speaker A: 明白了,不是瞎碰,是指导性的改进。
Speaker B: 就是这样。然后这个生成、评估、改进的过程啊,就一遍一遍地循环,好的算法就慢慢进化出来了。
Speaker A: 听起来效率很高啊。
Speaker B: 嗯,它底层用了一种叫进化策略(ES)的技术,这个技术特别适合并行处理,所以能大规模地去搜索。
Speaker A: 原来是这样。那它具体取得了哪些让人觉得“哇”一下的成果?是不是说 AI 真的开始在不同领域都能发现新东西了?
Speaker B: 这就是最有意思的地方。它的成果跨度非常大,显示出这种方法的潜力真的不小。
Speaker A: 比如说?
Speaker B: 比如,在金融,这是它原始论文的重点。它在那个纳斯达克的历史数据上,找到了新的交易策略,就是所谓的阿尔法因子。
Speaker A: 阿尔法因子?就是能赚钱的策略?
Speaker B: 嗯,目标是找到那种风险不高,但回报不错,而且跟别的策略不太一样的路子。评价的时候会用上像夏普比率这种,看风险调整后的收益。
Speaker A: 所以不只是像 AlphaGo 那样在一个领域找到一个神来之笔,而是找到了一种方法,能在金融、数学、工程这些完全不同的领域里去发现新技巧。这感觉是个质变啊。
Speaker B: 说得特别对。你看啊,在基础科学上,它居然改进了一个核心数学运算——4x4 复数矩阵乘法。
Speaker A: 这个我知道,好像很久没突破了。
Speaker B: 对,50多年了。从49次乘法降到了48次。虽然只少了一次,但这可是1969年以来的第一次改进。
Speaker A: 哇!
Speaker B: 还有,它还推进了一个几百年的数学难题,叫“接吻数问题”。在11维空间里找到了更好的球体堆叠方案。这就说明 AI 开始能碰那些困扰人类很久的基础问题了。
Speaker A: 而且听说谷歌内部已经再用了,解决实际问题?
Speaker B: 没错没错。这说明它不只是理论上的,很有实用价值。谷歌用它优化内部系统,像管理他们超大数据中心的那个 Borg 系统。
Speaker A: 效果呢?
Speaker B: 据说节省了0.7%的资源。你别小看这个数字,对谷歌那种体量,这可不少了。
Speaker A: 嗯,确实。
Speaker B: 他还加速了自家 Gemini AI 模型的训练。通过优化那种大型矩阵运算,训练时间缩短了大概1%。
Speaker A: 训练更快了。
Speaker B: 对。甚至还改进了设计 Google TPU 芯片用的硬件描述语言,还有编译器,让 Transformer 模型在 GPU 上跑得更快了,提速了32.5%。
Speaker A: 我的天!从基础数学到数据中心,到芯片设计和模型训练,这跨度真的很大。那这对我们,或者说对听众你来说,意味着什么呢?
Speaker B: 嗯…最直接可能就是,我们以后用的软件、享受的服务,底层可能都悄悄被这种 AI 优化过了,效率更高、能耗更低。
Speaker A: 对科研人员呢?
Speaker B: 那潜力就更大了。可能就像 AlphaFold 对生物学研究那样,变成一个加速发现新药、新材料的超级工具。
Speaker A: 这也引起了不少讨论对吧?我看网上有人包括像 Yann LeCun 这样的大佬,就在讨论 LLM 是不是真的能发现新东西。
Speaker B: 对,这个讨论很有价值。AlphaEvolve 的巧妙之处在于,它不是单靠 LLM。LLM 在这里是整个系统的一部分,一个有创造力的组件,跟进化算法、评估器一起工作。
Speaker A: 是一个系统工程。
Speaker B: 没错。当然,AI 发现过程有点像黑箱,怎么去验证这些发现,也是个挑战。
Speaker A: 嗯,有道理。我还再 Reddit 上看到有些程序员,好像有点焦虑,担心以后工作。
Speaker B: 这种担心能理解,但这更像是个信号,就是未来可能要变了。
Speaker A: 怎么变?
Speaker B: 人类的价值可能更多的在于提出好问题,设定对的目标和标准。然后 AI 呢,就作为强大的探手工具, 在巨大的可能性里找答案。
Speaker A: 这可能是人机协作的新模式吧。
Speaker B: 那我们现在能用上 AlphaEvolve 吗?或者去哪里看看?
Speaker A: 现在主要是谷歌内部在用,用了一年多了。DeepMind 说会给学术界提供早期访问权限。不过如果你对这个思路感兴趣,GitHub 上有个社区搞的 OpenAlphaEvolve 项目,可以去了解一下类似的概念是怎么实现的。
Speaker B: 好的,明白了。所以总结一下,AlphaEvolve 展示了 AI 的一个重要转面,就是从单纯执行任务,到开始具备一定的,怎么说呢,自主发现和优化的能力。
Speaker A: 对。
Speaker B: 而且这种能力好像能跨越金融、数学、工程这些看起来很不一样的领域。
Speaker A: 的确是这样。它给我们展示了 AI 能力的一个新维度。
Speaker B: 嗯,这就引出了一个挺有意思的问题。让我们思考一下,你看,AlphaEvolve 能成功,很大程度上还是靠人给它定义好问题和评价标准,对吧?
Speaker A: 对。
Speaker B: 那么,随着这种 AI 的发现能力越来越强,未来创新里面最核心、最不可替代的,属于人类的贡献到底会是什么呢?是提出那个对的问题,还是设定那个巧的目标,或者是某种我们现在还没完全意识到的更深层次的智慧?