AI 为什么会在过去十几年突然爆发?很多人第一反应是算法突破,或者数据足够多了。但如果把视角拉到底层,你会发现,真正点燃深度学习革命的,根本不是软件,而是硬件。这期,我们跟随英伟达首席科学家比尔·达利的视角,重新梳理 AI 算力崛起的真实路径:为什么二十世纪八十年代就已经出现的神经网络,直到 2012 年才迎来爆发?为什么 AlexNet 的历史性意义,不只是模型本身,更是它第一次真正把 GPU 变成了深度学习的引擎?为什么过去十多年单块芯片性能暴涨数千倍,但其中绝大部分并不是摩尔定律带来的?从 FP32 到 FP4 的精度革命,从 Tensor Core 对指令开销的碾压,到结构化稀疏、NVLink、NVSwitch,再到大模型在预填充和解码阶段面临的带宽鸿沟,这期内容会把 AI 华丽的软件外衣一层层扒开,让你看到真正支撑智能涌现的物理逻辑。更重要的是,当 Agent 和超大模型把推理需求推到新极限之后,未来的竞争已经不只是拼模型参数,而是在拼谁能更高效地搬运数据、更节省每一个焦耳、把每一次计算压榨到极致。如果你想真正理解 AI 浪潮背后最硬核、也最容易被忽视的底层真相,这期内容不能错过。
聊天讨论群,可加微信gxjdian入群,需备注,来自播客AI前沿


深度学习的硬件趋势 | AI爆发不靠摩尔定律 | 比尔达利 | GPU进化
21分钟 ·
277·
0