内存,才是AI时代最被低估的底座半导体产业报告

内存,才是AI时代最被低估的底座

14分钟 ·
播放数24
·
评论数1

“算力的尽头,不是AI模型的极限,而是内存架构的瓶颈。”

2025年8月,Marvell 在 Hot Chips 上丢出了一颗“底层炸弹”——《A Revolution in Memory Architecture for the Data Center》

不是新的大模型,不是又一个炫技的AI芯片,而是一个看似冷门却极其关键的方向:内存。SRAM、HBM、Die-to-Die(D2D),这些被忽视的“幕后角色”,正在重新定义数据中心的极限。

这场演讲有个醒目的副标题:

Memory: Almost the Only Thing That Matters

当“几百亿参数”的AI模型在芯片上飙车的时候,真正决定你能开多快、能跑多远的,不是计算单元,而是它们能不能被喂饱。Marvell 正是在这个入口,开始了一场看似技术,实则商业的战争。

技术不性感,但真有料:Marvell 的三层架构革命


1️⃣ 底层密度革命:SRAM,不只是缓存

SRAM 在过去一直是“没被看见的英雄”——能放在芯片里,但太贵,密度低。Marvell 直接在 2nm 工艺上用自研 IP 干了件大事:把单位带宽下的面积降低 50%,待机功耗降低 66%,带宽提升 17 倍

图片

更关键的是:Marvell 的 SRAM,是整个产品族的核心共享 IP——从 XPU 到交换芯片,从 DPU 到 NIC,全线统一,用极致密度做底座。

底层统一,才是系统级创新的真正开始。

而这一切背后,是他们对“Vmin”的精准控制:写入辅助、稳定性辅助、高 sigma 建模,以及行列冗余机制,让极低电压下也能稳定运行,从而直接压缩功耗与成本。

图片

2️⃣ 中层连接革命:D2D,让芯片内部不再“内耗”

Die-to-Die 连接是芯片设计的“骨架”。Marvell 不满足于行业标准,而是打造了自己下一代 D2D IP,单通道 64Gbps 的双向带宽,比 UCIe 同类方案带宽密度高出 3 倍以上。

它能自动适应数据中心“突发流量”的特性,在节能与吞吐间做出最聪明的判断

再加上他们对 BER(误码率)极限的控制,实测值远远低于 1E-30——这不只是性能,而是设计哲学:为超大规模部署而生。

图片

D2D不是连接,而是芯片级组织力的革命。


3️⃣ 上层架构革命:HBM,不只是高带宽,而是平台重构

Marvell 把 HBM 从“外挂内存”变成了架构参与者。他们推出的 Custom HBM 架构,在底层用 D2D 替代 PHY 接口、在逻辑层集成了 RAS、QoS、Telemetry 功能,直接让 HBM 拥有了“芯片性格”

图片

效果是什么?对比传统HBM方案:

  • 计算面积提升 70%
  • I/O功耗降低 75%
  • 支持逻辑层扩展和协议接入

这背后是个很少被讨论的逻辑:“芯片=计算+内存+通讯”,只重前者必然失衡。

Marvell 借助这个定制化HBM,直接突破了系统瓶颈,不只是“扩内存”,而是重构AI芯片的基本形态

谁能看懂这场变革,谁就能定义下一代算力平台


Marvell 这场发布会,是一次“隐秘的豪赌”。

它没有讲模型,没有喊AI通用计算的口号,而是选择站在了最难、最深的那一层做突破——用基础设施,赌未来平台主导权

如果你是芯片行业的从业者,这篇报告背后传递的,其实是一个更重要的信号:

不是所有的进步都在聚光灯下,有些革命,从位线开始。

AI 不会等人,而底层的延迟、功耗、带宽,是每一个工程师绕不过去的现实。那些把系统当整体优化、而非堆料的人,才是真正的“平台级玩家”。

写在最后:定义“下一代”的,从来不是热点,而是底座


我们见过太多“追热点”的芯片设计公司,拼参数、卷 FLOPS、比谁支持的模型更多。但今天你回头看,那些真正跑通了商业的架构,赢的从来不是峰值性能,而是系统级效率

Marvell 没讲什么宏大叙事,但它在默默定义一个新的趋势:

系统设计的下一个护城河,不在计算,而在内存。
展开Show Notes
铁锅炖_Apqq
铁锅炖_Apqq
2025.12.24
能不能以更易懂的方式分享,一些过于专业的名词和缩写可否简单解释一下,以及非必要的地方不用太多英文呢。以及提问的主持人每次说“明白了”,刚听懂一半的我,都开始莫名焦虑。。。