聊聊AI行业最硬核也最容易被忽略的战场——算力基础设施。从OpenAI的星门联盟的瓦解,到马斯克用122天在废旧工厂里建成全球最大GPU集群;从谷歌十年自研TPU的垂直整合路线,到Anthropic"不性感但最稳健"的多云策略——结合我自己做IDC建设和基模PMO的经验,逐家拆解这场军备竞赛的真实进展。
17不在家,57来solo💃🏻💃🏻💃🏻。你会听到:
- 星门项目从高调官宣到名存实亡的完整时间线
- 马斯克122天建成Colossus的四大核心逻辑(和他付出的代价🐶)
- 数据中心三种建设模式的成本与控制权取舍
- 为什么"有最多的卡≠有最好的模型"
- 算力瓶颈正在如何影响每一家AI公司的命运
一年前白宫里4个男人聊5000亿美元的大项目,一年后 项目0进展+一堆吵架

xAI 122天建成全球最大AI训练集群

01:09 5000亿美元的星门刚官宣,马斯克直呼“他们没钱”
03:47 1兆瓦算力≈2500张H100≈1亿美元投入
05:51 “星际之门”10GW目标,全美当前数据中心才15GW
10:00 有一种速度叫“马斯克速度”,122天上线10万卡,当然有一群的不合规风险等着他
17:07 看看Google的“十年磨一剑”和Anthropic的“两条腿走路”
22:40 插播三种数据中心模式:自建 vs 长期租赁 vs 标准云——成本、控制权、设计自由度
27:19 各家的脖子都会被卡,或者已经卡住了
34:20 四个值得持续关注(吃瓜)信号:OpenAI今年底IPO、xAI百万GPU目标、Google TPU外销、Anthropic 2028盈亏平衡

