第7期丨AI的灵魂:机器学习(上)白话-大模型

第7期丨AI的灵魂:机器学习(上)

8分钟 ·
播放数254
·
评论数0

你好,欢迎来到AI科普系列《白话大模型》的第7期。

上一期我们讲到,AI的第一次路线之争,最终让早期过于乐观的研究者们撞上了现实的冰山。人们意识到,想靠人类专家写下全世界所有的规则来教会机器思考,几乎是一条走不通的路。

正是在这种深刻的反思中,一个更加务实、也更加强大的思想逐渐走向了舞台中央。它继承了连接主义“从数据中学习”的精神内核,并最终将彻底改变人工智能的技术版图。

这个思想,就是机器学习

AI知识大陆的地图

不过,在我们正式进入机器学习的世界之前,咱们先理清几个概念。

我相信很多朋友都听说过人工智能机器学习神经网络深度学习大模型等等这些热词,它们听起来好像差不多,经常被混着用,这个让很多刚入门的爱好者非常困惑。它们之间到底是什么关系呢?

为了彻底搞清楚,我们就来看这张“AI知识大陆的层次结构图”。这可以说是我们探索AI世界最重要的一张地图图例。你看,这几个概念的关系就像一组“俄罗斯套娃”:

  • 最外层:人工智能 (AI):这是研究者们最宏大的目标,就是要让机器变得像人一样聪明,甚至比人更聪明。
  • 第二层:机器学习 (ML):这是实现人工智能这个宏大目标最主流、也最成功的一条路径。它的核心不是靠人去编写所有规则,而是让机器自己从数据中学习。
  • 第三层:神经网络 (NN):它是机器学习当中,受到我们人脑结构启发而设计出来的一类非常强大的模型。它是机器学习的一个分支,当前也绝对是最闪亮的明星之一。
  • 最内层:深度学习 (DL):它是神经网络的一个分支,是指那些结构非常复杂、层次非常非常多的神经网络。正是这些“深度”的网络,才让AI在最近十年取得了革命性的突破。咱们今天用的DeepSeek、豆包、即梦AI这些工具,都是深度学习这个领域当中的成功应用。

所以简单总结一下:深度学习是一种复杂的神经网络,神经网络是一类重要的机器学习算法,而机器学习,则是实现人工智能当前最核心的手段。

好,有了这张地图,我们就不会迷路了。现在,我们回到对机器学习的介绍。

一个经典问题

我们先看一个经典问题:如何让计算机来识别一张图片里有没有猫?

如果采用传统的思路,我们需要绞尽脑汁,写下成百上千条规则。比如说,“如果图片里有两只尖尖的耳朵”、“如果图片里有圆圆的眼睛”、“如果图片里有细长的胡须”,那它可能是一只猫。

这种方法不但极其繁琐,而且面对现实世界中猫的千姿百态、不同品种、各种光线跟背景的干扰,规则几乎不可能做到完备和准确。

而机器学习则另辟蹊径,提供了一个全新的思路。它说:“我们换个活法!”。我们不需要像教一个学徒工那样,手把手告诉计算机每一步怎么做。取而代之的是,我们收集成千上万张各种各样的图片,其中有些是猫的图片,我们给它打上【这是猫】的标记;其他的各种不是猫的图片,我们给它打上【这不是猫】的标记。

然后,我们把这些海量的、带着标记的数据“喂”给机器学习算法。算法会自动地、反复分析这些图片,试图从猫的图片中,找出它们共同具有的、而那些非猫图片所不具备的视觉模式跟统计规律。最终,算法自己会“悟”出猫和非猫的区别。

这是一个深刻的范式革命,它代表了从“授人以鱼”到“授人以渔”的根本性转变。

会下棋的程序

让“机器可以学习”这个理念第一次走出纯粹的理论思辨,并且得到令人信服验证的,是一位伟大的先驱——阿瑟·萨缪尔 (Arthur Samuel)

故事要从20世纪50年代说起。那时的计算机是占据整个房间的庞然大物,运算速度也慢如蜗牛。当时担任IBM工程师的萨缪尔却萌生了一个在当时看起来既不切实际、又有些不务正业的想法:教计算机下西洋跳棋

那么,萨缪尔的跳棋程序是如何实现“学习”的呢?他巧妙地设计了两种核心机制:

  1. 死记硬背 (Rote Learning):程序会记住遇到的每一个棋盘局面,以及从这个局面开始最终是赢、是输还是平局的结果。这个就像是我们背熟了乘法口诀表,以后看到 5*6 就脱口而出是30,而不需要从头计算。
  2. 自我对弈、提升棋感 (Self-Play & Evaluation):这更是萨缪尔程序中最具创新性的部分。程序与自己进行了成千上万次的对弈,通过分析这些对弈的结果(比如哪些策略更容易导向胜利),程序可以不断优化内部的一个“评估函数”。这个过程就像专业棋手通过大量的实战和复盘,来不断打磨自己的棋艺。

通过这个学习机制,萨缪尔的跳棋程序不断精进。在1962年,它甚至击败了美国康涅狄格州的跳棋冠军罗伯特·尼利。这个在当时引起了不小的轰动,因为它非常生动地向公众展示了:机器确实可以从经验中学习,并完全可能超越其创造者

正是在这项开创性的工作基础上,萨缪尔在1959年为机器学习下了一个经典的定义:

机器学习这个研究领域,赋予了计算机无需明确编程即可学习的能力。

工程学的蓝图:E/T/P框架

萨缪尔的定义非常直观,富有启发性。但是为了在学术和工程实践中更加精确地去描述和度量学习过程,卡内基梅隆大学的汤姆·米切尔 (Tom Mitchell) 教授,在他1997年的经典著作《机器学习》中,提出了一个更加形式化、也更具操作性的定义,如今已成为该领域的标准。

它清晰地指出了构成一个机器学习过程的三个核心要素,我们称之为E/T/P框架

  • E (Experience, 经验):指的是程序用来学习的数据,或者与环境交互的过程。比如一个包含大量已标记邮件的数据集,就是经验。
  • T (Task, 任务):指的是程序需要完成的具体工作。比如将邮件分类成“垃圾邮件”和“非垃圾邮件”,就是一个任务。
  • P (Performance Measure, 性能度量):指的是衡量程序在执行任务时表现好坏的标准。比如被正确分类的邮件所占的百分比,就是一个性能度量。

所以,米切尔对机器学习的完整定义是:

一个计算机程序从经验E中学习,以解决某类任务T,并用性能度量P来衡量。如果以P衡量的、它在任务T上的性能随着经验E的增加而提高,那么我们就说这个程序具备了学习能力。

这个E/T/P框架的价值远不止于一个理论定义,它为我们思考、设计跟评估任何一个机器学习项目,都提供了一个非常实用和清晰的工程学指导蓝图。可以说,E/T/P框架是每一位AI从业者在项目启动之初,都应该牢记于心的“黄金三问”。

为什么大器晚成?

当然,你可能会问,机器学习这个思想既然在上世纪50年代就有,为什么直到最近一二十年,我们才真正感受到了它的威力?

这并非因为先驱们的想法不够深刻,而是因为机器学习的潜力被当时的客观技术条件压制了数十年。直到进入21世纪,驱动它的“三驾马车”才终于齐备:

  1. 数据 (Data):互联网的普及带来了前所未有的海量数据资源,让机器学习有了充足的“养料”。
  2. 算力 (Compute):摩尔定律推动着硬件芯片技术的持续进步,为复杂模型的训练提供了强大的算力保障。
  3. 算法 (Algorithms):许多更高级、更强大的学习算法,也是在几十年的研究当中才逐步被提出和完善的。

所以,正是数据、算力、算法这三驾马车的齐头并进、相互促进,才在最近一二十年共同点燃了机器学习的引擎,迎来了我们今天所看到的蓬勃发展时期。

好,今天我们初步揭开了机器学习的神秘面纱,通过萨缪尔的跳棋程序理解了“从经验中学习”的灵魂,也通过米切尔的E/T/P框架掌握了定义一个学习任务的工程蓝图。

机器学习的核心,就是“从经验中学习,以改善在特定任务上的性能”。这个过程其实与我们人类的学习非常相似。

回忆一下我们是如何学会骑自行车的:父母不会给我们讲解牛顿力学,而是让我们自己去尝试、去摔倒、去调整。我们会在一次次的尝试中逐渐“悟”出平衡的诀窍,骑得也越来越稳,这也就相当于机器学习算法的性能越来越提升。

就像人类学习知识有不同的方法,机器学习经过几十年的发展,也逐步形成了三大主流的门派,它们就像三位性格迥异但各怀绝技的武林宗师:

  • 第一位是监督学习,他就像一位严格的老师,手把手带着标准答案来教学。
  • 第二位是无监督学习,他就像是一位独立的导师,放手让AI自行去探索未知。
  • 第三位叫强化学习,这个就像是一位实战教练,在奖惩试炼当中带你悟出真谛。

下一期,我们就将拜访这三位武林宗师,完整了解机器学习的三大流派。

欢迎你关注【星科技】,收藏《白话大模型》系列,我们下期见!

-- THE END --