S2E11: xGPU: 驱动AI的“动力引擎”

S2E11: xGPU: 驱动AI的“动力引擎”

7分钟 ·
播放数152
·
评论数0

大家好,我是小艾,欢迎回到《AI有点意思》第二季。

在之前的十期节目里,我们一直在探讨AI的“软件世界”——算法、数据、模型架构、提示词工程……但不知道你有没有想过一个问题:所有这些让AI变聪明的魔法,最终是运行在什么上面的?是什么在背后支撑着那个“大力出奇迹”的算力奇迹?

今天,我们要走出“软件”的范畴,走进那个灯火通明、嗡嗡作响的“硬件车间”,去认识那些驱动AI运转的“动力引擎”——xPU家族。

首先,让我们来感受一下“大力”背后的成本。你可能听说过,训练像GPT-4这样的超级大模型,需要消耗惊人的电力。有多惊人?有研究估算,其单次训练耗电量,可以媲美一个小型城市一年的居民用电量。这不仅仅是一个能源账单的问题,它背后是一整座由无数芯片组成的“数字发电厂”在日夜轰鸣。那么,这些支撑着“计算盛宴”的硬件核心,究竟是谁?

如果我们把AI的计算任务比作运输货物,那么传统的中央处理器——也就是我们熟知的CPU,就像一辆性能均衡的皮卡。它什么都能拉一点,能处理各种复杂的路况(逻辑运算),但一趟运的总量有限。然而,AI训练需要的是“并行计算”——同时处理成千上万个简单的数学运算,这相当于需要一支能同时搬运海量集装箱的车队。这时,GPU登场了。

GPU,全称是图形处理器。你可能更熟悉它的另一个名字——显卡,那个让你玩大型3D游戏时画面流畅的功臣。GPU的诞生,本是为了在屏幕上同时渲染数百万个像素点,这个任务天然就需要极强的并行计算能力。工程师们很快意识到,训练神经网络所需要的,不正是这种“同时处理海量简单运算”的能力吗?

于是,GPU意外地成了AI训练的“主力军”,或者说“基建狂魔”。而在这个领域,有一个名字你几乎无法绕开,NVIDIA,也就是英伟达。它不仅是GPU的发明者,更重要的是,它早早地构建了一套名为CUDA的软件生态。你可以把CUDA想象成一套为AI量身定制的“工程语言”和“施工规范”,让开发者能轻松地指挥GPU这座“数字工地”去执行复杂的神经网络运算。正是因为硬件性能和软件生态的双重垄断,英伟达成了这场AI浪潮中最大的“军火商”。

然而,并非所有人都满足于使用“通用型”的GPU。比如谷歌,它拥有海量的内部AI业务(搜索、翻译、YouTube推荐),如果所有计算都依赖外购GPU,成本和技术上都受制于人。于是,谷歌走上了另一条路:定制化。

这就是我们第二个主角——TPU,张量处理器。TPU是谷歌为神经网络运算专门定制的“特种芯片”。如果说GPU是能拉各种货的万能卡车,那TPU就是专为F1赛道设计的赛车。它牺牲了通用性,只专注于加速“张量运算”——这是神经网络最核心的数学操作。结果呢?在谷歌自家的AI任务上,TPU的能效比和计算速度远超同代GPU,就像用F1赛车跑专业赛道,优势尽显。所以,TPU的核心逻辑是:为特定任务做极致的优化,用专用硬件换取极致的效率。

讲完这两位“大块头”,让我们把目光收回到你我的身边——你的手机上。你有没有发现,现在的手机拍照能实时美化、人像抠图无比精准,语音助手能离线唤醒、秒速响应?这些看似神奇的AI功能,靠的不是联网调用云端大模型,而是手机里那颗小小的、却专为AI而生的芯片——NPU,神经网络处理器。

NPU可以理解为TPU的“迷你版”或“手机版”。它的设计目标是在极低的功耗下,高效地执行AI推理任务(也就是我们之前讲过的“工作期”)。当你在相册里搜索“狗”的照片,或者让手机实时翻译屏幕上的文字时,这些任务都在NPU上完成。它就像一个贴身的、节能的“小马达”,让AI能力能够脱离云端,随时随地、低功耗地在你的设备上运行。

这三者——GPU、TPU、NPU,加上其他形形色色的专用芯片,它们提供的综合计算能力,有一个我们经常听到的总称——算力。在AI的世界里,算力是与数据、算法并驾齐驱的第三大支柱。算法是“配方”,数据是“食材”,而算力就是烹饪这一切的“火候”和“电力”。没有足够的算力,再好的配方和再新鲜的食材,也只能是一堆生料。

理解了这些,你就能看懂很多新闻背后的逻辑:为什么各大科技公司不惜重金疯狂囤积GPU?因为算力是AI时代的“硬通货”,是制约模型发展速度的瓶颈。为什么你的手机能离线运行AI应用?因为NPU这类专用芯片让AI推理变得足够轻量和节能。为什么谷歌要自研TPU?因为当算力需求达到天文数字时,任何一点能效比的提升,都意味着数亿美元的节省和技术的领先。

总结一下今天的核心内容:我们认识了驱动AI世界的三大动力引擎——GPU、TPU和NPU。GPU凭借其强大的并行计算能力,成为AI训练的“万能主力军”;TPU是为特定AI任务定制的“特种部队”,追求极致的效率;而NPU则是嵌入在我们身边设备里的“贴身马达”,让AI推理实时、低耗地运行。这些硬件提供的综合能力,就是被我们称为“算力”的、AI世界最基础的“电力”。这场围绕算力的竞赛,正直接决定着AI发展的速度与高度。

我是小艾,感谢收听本期《AI有点意思》,我们下次再会。