大家好,我是小艾,欢迎收听《AI有点意思》第二季。从今天开始,我们的旅程要升级了。如果说第一季,我们是在AI世界的门口好奇张望,那么第二季,我就要带你推开那扇门,走进它的核心车间,去看看那些让智能得以运转的精妙齿轮和发动机。
你有没有觉得,AI仿佛在一夜之间,从科幻电影跳进了我们的现实?它不再是实验室里遥不可及的玩具,而是能和你流畅对话、帮你写文案、甚至能凭空画出奇幻世界的伙伴。但这一切真的是“一夜之间”发生的吗?当然不是。今天,就让我们坐上一架特别的时光机,不是去看恐龙,而是回看AI这场跌宕起伏、充满戏剧性的七十年发展大戏。
这段历史,有点像一部“三起两落”的励志剧本。
剧本的第一幕,是第一次AI热潮,大约在上世纪五六十年代。那时的科学家们,想法非常直接:人类不是靠逻辑和规则思考吗?那我们就把世间所有的逻辑和规则,都写成“如果…那么…”的代码,教给计算机。这就像给一个天才婴儿一本超级厚的《世界规则字典》,指望他背下来就能成为智者。起初很令人兴奋,计算机真的能证明数学定理、下简单的棋了!但人们很快发现,现实世界复杂、模糊、充满例外,根本不是一本字典能涵盖的。让计算机识别一只猫,都需要穷举无数条“如果有胡须、如果有圆耳朵”的规则,还常常认错。于是,热情耗尽,资金撤离,AI迎来了第一个冬天。
但科学家们没放弃。到了七八十年代,他们换了个思路:我们不追求通用智能了,我们先让AI在一个特定领域成为专家,行不行?于是,第二次热潮来了,主角是“专家系统”。这就像把AI培养成一位位“专科医生”或“金牌顾问”,它肚子里装满了某个领域(比如诊断疾病、配置化学配方)的人类专家经验。这些系统在一些地方真的帮上了忙。但问题又来了:知识太难更新了!每一条新知识都需要工程师像修钟表一样,手动编码进去,成本极高。而且系统非常脆弱,一旦遇到规则之外的情况,立马“死机”。于是,AI再次遇冷。
这两次起落,揭示了一个根本的困境:试图把人类的所有知识和逻辑,手把手、一条一条地“喂”给机器,这条路似乎走不通。
真正的转机,出现在思路的彻底调头。科学家们想:我们不如学学大自然?一个婴儿不是靠背诵规则认识世界的,他是通过看、听、触摸,从海量的数据中自己学习规律。于是,从九十年代开始,第三次浪潮的核心思想诞生了:我们不“教”了,我们让机器自己“学”。
这个思想,催生了我们现在常听到的“机器学习”。尤其是像大脑神经元一样工作的神经网络开始复兴。这次,我们不给机器规则,我们给它海量的图片和对应的标签“猫”、“狗”,让它自己调整内部数百万个“小开关”,去找到区分猫狗的特征。虽然这个过程需要巨大的算力和数据,但一旦学成,它的识别能力可能远超基于规则的系统。AI终于找到了一条更接近智能本质的道路——从经验中学习。
然而,真正引爆今天我们所见一切的,是一个更具体的“奇点时刻”。时间来到2017年。当时,让AI理解语言(比如翻译、读文章)的主流模型还很笨重,像一个必须逐字逐句、从头看到尾才能理解文意的、非常慢的读者。
就在这一年,谷歌的一群科学家发表了一篇名为《注意力就是你所需要的一切》的论文。它提出了一个革命性的架构——Transformer。这个名字有点技术化,但它的核心思想极其精妙。你可以把它想象成给了AI一支神奇的“全局高光笔”。
以前AI读句子,是线性的,看完后面可能忘了前面。而Transformer能让人工智能在阅读时,瞬间“照亮”整篇文章中所有相互关联的词语。比如读到“它”这个字,它能瞬间高亮前文提到的那个名词。这就像你读一本复杂的小说时,大脑能瞬间把分散在各处的人物关系、伏笔线索全部关联起来。这种并行处理和理解上下文的能力,是一个质的飞跃。
正是基于Transformer这颗强大的“新大脑”,像GPT这样的大语言模型才得以被训练出来。它们“吃”下整个互联网的文本,用“注意力”机制消化吸收,最终获得了让我们惊叹的对话和创作能力。
所以,回看这七十年,AI走过了一条从“手工灌输规则”,到“成为专业工具”,再到“从数据中自行学习”,最后凭借“注意力机制”实现能力狂飙的演进之路。自此,AI真正进入了由数据、算法、算力三大引擎共同驱动的“狂飙”时代。
那么,这个引爆一切的技术奇点——Transformer,它内部究竟是如何工作的?那支“全局高光笔”是怎么挥舞的?从下一期节目开始,我们就将正式进入核心解密环节,第一站,就是拆解这个Transformer架构。我们会用你能完全听懂的方式,看看这个“新大脑”里的精密齿轮是如何咬合的。
如果AI有自传,那么Transformer一定是它人生中最浓墨重彩的一章。而我们,正站在读懂这一章的起点。
我是小艾,我们下期《AI有点意思》,继续解密。
