

【硬核拆解】英伟达40亿美元押注光互联:OCS/CPO如何改变AI数据中心英伟达一次性向 Lumentum、Coherent 押注 40 亿美元,背后不只是买“更多显卡”,而是把下一代 AI 数据中心的胜负手指向了“光”。这期内容基于 Lumentum CEO 的深度讲解,从电网与能耗瓶颈出发,讲清楚为什么数据中心正从“电”走向“光”,并用两条主线拆解关键技术:OCS 如何提升跨数据中心互联效率,CPO 如何消灭 OEO 转换税、把光电转换贴近芯片。看懂它,你就能理解下一轮算力军备竞赛里,赢家可能不止半导体公司。
AI时代的“军备竞赛”:芯片、算力与巨头策略这期我们不聊“AI应用”,只聊幕后那场更关键的竞赛:芯片、算力、数据中心与巨头策略。 你会看到为什么从 Hopper 到 Blackwell,更像“重建一座小型发电厂”——液冷、重量、功耗、部署复杂度,决定了算力供给的上限。 但更戏剧的是:当硬件一度跟不上,AI却没有停滞,反而因为推理(Reasoning)与后训练方法出现了加速反转。 最后我们把视角拉到牌桌:英伟达、谷歌TPU、xAI、以及各家ASIC分别在打什么牌?谁想成为“最低成本Token工厂”? 如果你想系统理解“AI算力军备竞赛”,这期就是一张全景地图。 这期内容的核心观点,来自顶级科技投资人Gavin Baker。 Gavin Baker 是美国知名科技投资人、对冲基金Atreides Management 的创始人兼首席投资官(CIO),曾管理富达旗下大型基金并长期跑赢大多数同类产品。 他因早期重仓SpaceX、Uber、Snapchat 等公司而闻名硅谷。 站在资本和产业交界处,Gavin Baker 是能看到“订单、成本、部署难度、商业策略”全链条的人,可以说是科技投资圈里对半导体和基础设施理解最深刻的投资人之一。
AI正在重写软件商业模式:从按人头收费到按结果收费这期用 a16z 合伙人 David George 团队的“排气管数据”做一次硬核拆解:为什么顶尖 AI 公司“低毛利”反而成了荣誉勋章?693% 的年增速从何而来?AI 的推理成本如何改变 SaaS 时代的高毛利逻辑,并把商业模式推向“按结果收费”的终极形态。 我们还会讨论管理者最关键的一道选择题:用电(算力)还是用血(人力);以及那本“5万亿美元算力账本”到底是不是泡沫——用“暗光纤 vs 热GPU”的对比,把争议讲清楚。 如果你关心 AI 如何重构公司效率、组织结构与商业模式,这期就是你的底层框架。
当大模型开始同质化,AI的战场会转向哪里?这两年只要你关注AI,几乎一定听过同一句话:大模型是巨头的游戏。 理由也很简单——训练一个顶级模型,投入动辄上百亿美金,算力、数据、人才、工程体系,缺一样都不行。 于是很多人默认结局早就写好:最后只会剩下几家超级巨头,其他公司只能当“应用层小作坊”,跟着吃点边角料。 然而,欧洲AI明星公司Mistral的创始人、CEO Arthur Mensch 反而抛出一个非常“反直觉”的判断:基础模型正在走向商品化,它迟早会像电力一样成为基础设施。真正的战场会从“模型本身”迁移到“模型之上的系统与企业私有资产”。 Mistral AI 是一家总部位于法国的人工智能(AI) 初创公司,主要以其开源大型语言模型(LLM)而闻名。自2023 年成立以来,短短三年时间估值已经超过120亿欧元,它已成为全球领先的生成式AI开发商之一。 当模型不再稀缺,谁还能赚钱?当模型差距难以拉开,企业到底在为什么付费?闭源模型那么强,企业为什么还需要开源模型呢? 一、基础模型的商品化 Mensch的第一句话就很刺耳:基础模型的商品化是不可避免的。 很多人第一反应是反驳:怎么可能?你看全世界都在拼命砸钱,甚至还流传着“要投入约1.4万亿美元级别基础设施”的说法。如此昂贵的资产,怎么会迅速变成“谁都能用”的商品? 关键点在于:昂贵,不等于稀缺;投入巨大,也不等于形成壁垒。 Mensch的解释可以概括成三层: 第一层:能把模型训练出来的“科学见解”,其实并不长。 他所谓“核心知识很简短”,并不是说整个工程不复杂,而是指驱动模型跃迁的那类根本性洞见——比如 Transformer 的关键思想,本身非常精炼,一旦论文公开,传播速度会非常快。科学知识一旦扩散,最难用来做长期护城河,因为它天然具有可复制性。 第二层:真正拉开差距的是工程,但工程优势往往是短期的。 你每天看到的“突破”“刷新榜单”,背后往往是工程团队在做大量细碎却必须做的工作:数据清洗、训练稳定性、对齐策略、推理效率、成本优化、评测体系、无数边角问题的修补。它们确实能让你在排行榜上领先几个百分点,但很难把对手挡在门外很多年——只要对手足够聪明、有资源、有耐心,很快就能沿着类似路径追上来。 第三层:当差距是“工程上的领先”,而不是“原理上的代差”,砸钱就会变成一场危险的竞速。 这就是“流沙上建城堡”的含义:领先者可以暂时建得更高,但地基会一直在滑。当意识到这项昂贵资产正在以极快速度商品化,企业的战略重心就必须改变,否则投入越大,未来折旧越快,越容易被迫陷入“以更高成本换更短领先”的死循环。 到这里,问题就变得非常现实了:如果模型差距越来越难拉开,AI行业的赛点到底在哪里? 二、从“AGI”梦想到现实的“企业应用” 你可能也注意到了一个微妙变化:过去一年里,很多大模型公司谈论“企业应用”的频率,明显高过“AGI叙事”。甚至有一种感觉——风向变了。 Mensch对此的判断更直接:AGI这个概念对企业来说过于简单化。 他说得很像一句大白话:在现实世界里找不到一个能解决所有问题的人,同样也造不出一个能解决所有商业问题的“单一AI系统”。企业不是在寻找一个万能天才,而是在管理一套复杂系统:供应链、财务、风控、客服、合规、采购、仓储、生产、销售……每一个环节都有边界条件、有业务规则、有异常情况、有责任链条。 这意味着,企业真正需要的不是“什么都会一点的通才”,而是能深度嵌入流程、理解专有数据、长期稳定执行任务的专家系统。在这样的系统里,大模型更像一个强大的引擎,但它绝不是全部。 于是行业开始从一种“魔法思维”回归到“系统思维”:不再期待天降一个无所不能的神,而是认真思考如何把AI变成一套可靠的生产系统。 三、一个成功的AI系统=静态系统+动态系统 Mensch把成功的AI系统拆成两部分,静态系统+动态系统。这个框架几乎解释了“企业AI为什么难做”,也解释了“未来钱从哪里来”。 1)静态系统:人类写下的“作战计划” 静态部分更像一份编排手册,由领域专家制定规则与护栏:流程怎么走、边界在哪里、什么情况下触发什么动作、哪些决策必须升级人工、哪些风险必须拦截。 比如库存低于某个阈值,系统应自动启动采购;客户投诉属于某类场景,应自动分配到对应部门;合同金额超过某个范围,必须触发合规审查。这些规则相对固定,是企业经验的沉淀,也是企业治理的底盘。 2)动态系统:AI智能体作为“突击小队”去执行 动态部分就是我们常说的 Agent:它不是只会聊天的模型,而是在规则框架内拥有自主行动能力的执行者。它可以自己决定先去数据库查数据,还是调用API向供应商发邮件;可以自己理解邮件、文档、表格、图像,再决定下一步该做什么。 如果用一个更直观的比喻:当我们给实习生一个目标和规则(静态框架),但不会手把手告诉他每一步怎么点鼠标。他需要自己判断先打开Excel,还是先去数据库拉数,再去找财务补齐缺口。这个“自己决定如何完成任务”的能力,就是动态系统的价值。 更重要的是:动态部分越强,人类就越能围绕它设计更复杂、更大胆、也更有商业价值的静态作战计划。 这才是AI解决现实世界那些“脏活累活”的正确姿势,而不是指望一个模型“神奇地解决一切”。 四、闭源这么强,企业为什么还想要开源? 聊到这里,商业模式的分岔路口就出现了。 一种路线是典型的闭源模式:把模型做得最强,然后像“看门人”一样出售API调用权。你越强,你收费越高,别人越离不开你。 问题在于:当模型趋同、商品化不可避免时,“看门人”的议价能力就会被稀释。很快你会遇到更便宜的看门人,甚至免费的看门人。到那时,你卖的不是稀缺资源,而是一个越来越普通的门票。 Mistral选择的路线更像另一套哲学:模型本身不是最终产品,模型更像免费送给厨师的一台顶级烤箱;真正收费的,是围绕烤箱的实施经验、系统集成、持续维护、深度定制。 说白了,它卖的是“把AI接进企业血管里”的能力。 那企业为什么愿意走这条看起来更麻烦的路?Mensch给出三个理由,几乎每一个都戳中企业的软肋。 1)控制权与独立性:没人愿意把“电网总闸”交给别人 当AI变成企业运营基础设施,它就像电力、网络、ERP一样关键。你愿意让全公司的电网被另一家公司控制,对方随时涨价甚至拉闸吗?大企业对这种依赖性天然恐惧。 开源+私有化部署至少给了企业一个选项:关键能力可以留在自己手里,成本与风险不被外部一家公司绑定。 2)真正的护城河在“私有知识”,而不是通用能力 Mensch用了一个很传神的说法:企业最值钱的东西,往往是员工的“民间传说知识”。 它不是写在手册里的流程,而是“老律师面对某类客户时的沟通分寸”“老师傅凭声音判断机器异响的诀窍”“销售冠军建立信任的微妙节奏”。这些经验高度非结构化,却往往决定了企业效率、质量与利润。 企业只有在更强控制权下,才能把这些私有知识用自己的数据做微调、做训练,最终沉淀成别人拿不走的能力。到那时,AI不再只是“通用聊天”,而是企业独有的工作方式被固化成系统。 注:这部分可以参考黄仁勋之前关于软件的观点,可谓英雄所见略同。 3)地缘政治与主权:敏感行业无法把核心数据交给外部云 政府、金融、工业制造、关键基础设施这些领域,核心数据与系统完全托管给国外科技巨头,风险巨大。对它们来说,“能否私有化部署”“数据能否不出域”,往往比“模型再强一点”重要得多。 五、开源在企业的落地案例 如果前面还是战略推演,那么接下来Mistral给出的案例就把逻辑落到了现实里:AI已经开始进入“物理世界的流程”,并且能创造真金白银的价值。 案例1:集装箱货运调度——AI做总调度员,效率提升80% 这个场景典型得不能再典型:集装箱到港之后,要协调港口、海关、监管机构,还要在二十多种老旧软件里反复切换,信息散落在邮件、文档、表格、系统记录中。过去需要大量人力去做“跨系统的协调与搬运”。 AI系统在这里扮演的不是“问答机器人”,而是总调度员:它能理解传入的邮件和文档,从不同系统抓取数据,自主决策下一步动作——把集装箱安排到哪个堆场、调用工具预定卡车、生成文件发给海关……当流程大部分跑通后,效率提升非常可观。 注意,这里真正值钱的不是“模型聪明”,而是“模型能在工具链里行动”,能把分散系统编排成一个连贯流程。 案例2:与ASML合作——在晶圆缺陷检测里,数据与部署方式决定一切 另一个更震撼的案例来自半导体行业:ASML的设备在晶圆制造过程中需要极其精密的检测能力,问题往往是纳米级别的异常。要做好这件事,AI不仅要“看见图像”,还要理解背后的物理机理与工艺逻辑,才能判断一个异常到底是不是缺陷、为什么会产生、需要怎样的处理。 更关键的是:训练所需的扫描图像属于高度机密的知识产权,根本不可能随便上传到公有云。于是“可私有化部署、可深度定制”的路线就不再是加分项,而是合作前提。 当你把两个案例放在一起,就会得到一个非常清晰的结论:AI正在成为企业的编排者(Orchestrator),像中枢神经系统一样感知信息、做出决策、调用工具执行动作。 六、AI使用者的角色 Mensch最后提到一个细节,我认为比任何豪言壮语都更重要,因为它直接决定企业AI能不能规模化。 他说:把一个AI应用从80%“能用”提升到99%“生产级可靠”,方法和传统软件开发完全不同。不能像以前那样回去改几行代码修个bug就完事了,而更像是在培养一个新员工:需要不断给它反馈、给它纠错案例、给它示范边界条件,让它通过再训练逐步变得可靠。 这句话背后藏着一个角色转换:当我们管理的不再是一个只会严格执行命令的程序,而是一个需要从反馈中成长的系统时,在企业里的身份也会发生变化——我们不再只是软件的操作者,而是这些“数字同事”的老师和教练。 这也许就是AI时代最具颠覆性的地方:技术在变,组织与管理方式也会被迫重构。 结语:AI重构企业 回到一开始那个问题:大模型是不是巨头的游戏? 如果你只把AI理解为“训练一个更大的模型”,答案很可能是肯定的。但如果你把AI理解为“重构一套企业系统”,局面就完全不同了。因为模型会趋同,会商品化,会被价格战拉平;而真正难的部分在于:如何把AI嵌入流程、接入工具、吃进私有知识、在合规边界内稳定运行,并且从80%走到99%。 这才是Mistral这类公司真正押注的方向,也是接下来几年企业AI最可能诞生价值的地方。 当AI变成基础设施之后,竞争的关键不再是谁“拥有电厂”,而是谁能把电送到每台机器、每条产线、每个岗位,并且让它稳定、安全、可控地运转起来。这样的能力,才是新的护城河。
具身智能,奇点将至!春晚的机器人表演看完,它们确实比去年更“像样”了——动作更整齐,节奏更稳定,甚至能在舞台上把复杂的编排完成得干净利落。 很多人大概率会冒出一个很现实的问题:舞台上的机器人能跳舞,和家里那个能把厨房、洗衣、收纳、做饭一条龙搞定的“家务机器人”,到底差了多远? 也许只要五年!机器人研究者 Sergey Levine给出了他的预判。他是加州大学伯克利分校的教授,还是Physical Intelligence 联合创始人。 为什么他敢把时间压得这么短?为什么机器人不会像自动驾驶一样,又是一个让我们再听二十年的故事? 对于这个问题,Levine提供了逻辑清晰的分析框架:三大技术关键和数据飞轮何其启动。 一、“打理家务”其实并不容易 先从现实说起,机器人现在到底是水平?我们习以为常的“叠衣服、整理厨房台面、折披萨盒”是很简单的事情,但对机器人来说,这些恰恰是最难的入门题——因为它们要和“柔软、形态不定”的物体交互。 衣服不是刚体,披萨盒的折痕需要对齐,厨房台面的杂物会不断变化位置;人们随手能处理的细节,对机器人而言意味着感知、抓取、力度、协调的完整链条。 但这些“单点技能”即便做得再好,也仍然只是起点。Levine 描绘的终极形态,是你对机器人下达一个非常高级的指令:“帮我打理家务。” 这听起来像我们对智能音箱说“帮我放一首歌”,但“打理家务”这个范围太大了:我们可以继续补充细则,比如“晚上六点做晚饭,每周六洗一次衣服”,然后机器人在接下来的几个月里持续、自主地执行,自己规划、自己解决问题;洗衣液快用完了,它会提醒你,甚至主动下单补货。 这已经不是“工具”,而是更像一个真正的“管家”。而这也把问题推到了关键处:它和我们今天能设置的定时任务,到底有什么本质区别? 区别在于:定时任务是把未来写死;而“管家机器人”必须面对现实的不确定性。比如周六突然停水怎么办?厨房临时多了一道菜怎么办?孩子把玩具撒满客厅怎么办? 要实现家庭管家的目标,机器人还需要:常识推理、工作中的持续学习,以及最重要的安全保障。这三项能力过去默认只有人类才拥有。 二、“数据飞轮”何时启动 说到这里,Levine 的一个关键词就出现了:数据飞轮。 在商业世界,飞轮效应很常见:系统一旦启动,就能自我增强、越转越快。把它放到机器人身上,意思就是:当机器人真正被部署到真实世界里,哪怕一开始能力有限,它也会在与环境的一次次互动中积累数据和经验,这些经验再反过来训练模型,让它变得更聪明;更聪明之后又能处理更复杂的任务,收集到更多、更高质量的数据,于是形成正向循环。 那么,这个飞轮什么时候才能开始转? Levine 的回答是“很快”,并且给了一个更具体的时间框架:未来 1–2 年,第一批“足够有用”的机器人就可能走出实验室,进入一些商业或家庭场景,开始启动飞轮;而“能完全自主打理家务”的中级管家型机器人,他给出的中位数预测是 5 年。 我们见过太多关于AI的乐观预测,最后都被现实打脸。那这个“五年”到底是基于最理想的情况,还是他真的看到了某种不可逆转的进展? Levine 的回答反而很克制:这不是一个瞬间爆发的故事,而是能力范围持续扩张的过程。 他用了一件我们都亲历过的事情来类比:编程助手的演化。 最早的编程助手只能补全函数名,后来能补全整行代码,再后来能根据注释生成完整函数;到今天,顶尖工具甚至能帮你完成大部分编码工作,乃至提出架构建议。它们始终是人类专家的增强工具,但增强的力度在持续变大。 机器人也会走类似的路径:一开始也许只是一个“能稳定冲好一杯咖啡”的咖啡师助手,随着飞轮转动,它的能力会扩展到管理咖啡店后厨,包括补货、清洁、维护设备等等。渐进,但会不断加速。 三、为什么机器人不用“再等 20 年” 聊到机器人,有一个绕不开的话题:自动驾驶。 自动驾驶的故事我们听了快二十年,从最初的极度乐观,到现在的普遍谨慎。很多人会问:凭什么机器人不会成为下一个自动驾驶,让我们再等上二十年? Levine 认为这个质疑必须正面回答,而他的论证抓住了三个“技术起点”的差异。 第一,感知与理解世界的能力出现了代差。 2009年甚至2015年,自动驾驶感知系统在很大程度上依赖工程师手写规则与启发式算法;今天,基于 Transformer 的大模型在理解与泛化方面强得多。简单说,AI “看懂世界”的能力,和十几年前已经不是一个量级。这不是小步改良,而是底层范式的变化。 第二,机器人更容易在安全条件下启动学习回路。 自动驾驶的容错率极低,一个小失误就可能带来灾难性后果,所以它无法靠“差点撞到人”这种方式去学习。家用机器人则不同:洗碗时打碎一个盘子,最多是你心疼一下钱包,再让它把碎片收拾干净。这种受控环境里的试错,虽然也不舒服,但至少可承受、可反馈、可迭代,于是学习回路更直接、更高效。 第三,常识的引入改变了游戏规则。 今天的机器人可以利用大型语言模型(LLM)和视觉语言模型(VLM)中蕴含的庞大常识。你给 VLM 看一张写着“当心地滑”的牌子,它不仅能识别这是块牌子,还能理解其中的含义:地板湿,走过去可能滑倒,你应该绕开或小心。这种“不必亲自踩过所有坑,也能通过推理规避风险”的能力,是早期自动驾驶系统很难具备的。 更强的感知与泛化、更安全的学习回路、再加上可被调用的常识大脑,这三者叠加,让 Levine 认为这次的情况与自动驾驶并不相同。 四、机器人“大脑”的组成 说“常识大脑”容易空泛,但 Levine 给出的描述很具体:它不是一个简单程序,而更像一个由两类模块组成的组合体——视觉语言模型(VLM)+ 动作专家。 我们可以把它想象成一个更完整的生物体:VLM 负责“思考、规划、理解”,像大脑皮层;动作专家负责“精确运动控制”,更像小脑和运动神经。两者分工明确,却紧密协作。 比如对机器人说“把桌子收拾干净”,它的摄像头像眼睛一样捕捉桌面视觉信息,输入给 VLM;VLM 在内部把模糊目标拆解成可执行步骤:桌上有脏盘子、空杯子、苹果盒,第一步应该把盘子拿去水槽。 随后,这个“拿起盘子”的指令会被传递给动作专家,由它把抽象命令转化为一连串精确、流畅的物理动作:机械臂以特定角度和力度稳定抓取,避免滑落或碰撞。 这套结构的意义在于:机器人不只是“会动”,而是开始“会规划”,并且能把规划落实为可靠动作。 五、真正的瓶颈:高质量数据 到这里,最大的难题就浮出水面:数据。 大语言模型能学习互联网的文本和图片,但机器人不能只靠“网上的视频”学会叠一件皱巴巴的 T 恤。现实世界的物理互动数据从哪里来?这才是整个领域的核心瓶颈,也是 Levine 反复强调的一点:解决它需要工业级规模的努力,而不仅仅是大学实验室里的科研项目。 很多人会下意识提出一个看似合理的方案:数据不够,那就多搞几千个机器人,让它们 24 小时不停地干活,规模扩大一百倍不就行了吗? Levine 的回答是:关键不是让它们“蛮干”,而是找到正确的规模化维度。 任务种类的增加当然重要,但更重要的是让机器人在同一类任务里经历足够多的变化:一千件不同材质、不同大小、不同褶皱程度的衣服都能叠好,甚至衣服是湿的、带破洞的、被压住的,它也能处理。 换句话说,真正值钱的数据不是“平稳场景”,而是那些让系统变稳健的边界情况。 目前机器人训练的数据量,相比互联网级别的数据仍然差一到两个数量级,所以策略不是等“收集齐一切”再出发,而是先获得足够高质量的数据来启动飞轮。 一旦机器人能在真实环境中完成一些有用任务,它就会进入自我持续收集数据、正向加速迭代的循环。 六、机器人的涌现能力 如果说飞轮解释的是“为什么会快”,那么真正让人感到震撼的,是另一件事:机器人是否会像大模型一样出现涌现能力? Levine 的答案是肯定的,而且他把这种能力归因于一种现象:组合泛化。 我们可以把它理解成“像 LEGO 积木一样拼接能力模块”。一个模型未必见过“用国际音标写巧克力蛋糕食谱”这种奇怪任务,但它见过海量的国际音标单词,也见过大量蛋糕食谱的结构,于是它能把两项技能拼起来,生成从未见过的新东西。 机器人也会出现类似的“拼接式创造”。Levine 提到的一些真实案例,听上去甚至比舞台表演更有冲击力: 机器人在叠 T 恤时不小心抓起两件,发现另一件压在下面很碍事,它没有卡住,而是停下动作,把多余的那件捡起来扔回篮子,清空工作区再继续;机器人往购物袋装杂货,袋子翻倒了,它先把袋子扶正,再继续装剩下的东西。 有人故意把短裤翻成里外反面递给它,它在折叠前先自己摸索着把短裤翻回正面。 这类行为的可怕之处在于:它们不是被明确编程的规则,也不是被逐条教会的动作,更像是“为了完成任务而自发出现”的问题解决能力。 当底层的物理世界解决问题能力,再结合上层语言模型的理解与推理能力,机器人就有可能超越简单重复劳动,真正开始应对复杂多变的现实世界。 七、最后一个更大的问题:叠衣服,会不会反而是通向更强智能的入口? 写到这里,你也许会发现一个很反直觉的事实:我们原本以为“叠衣服”是最琐碎的事,但它可能恰恰逼迫系统建立对物理世界的深刻表征。 Levine 在访谈结尾抛出过一个很深的观点:人类之所以能进行复杂的抽象思维,很大程度上源于与物理世界的互动经验。 我们会用“势头(momentum)”“分量(weight)”这样的物理概念去描述抽象事物,这说明物理经验在塑造我们的认知结构。 那么,如果一个AI真正能够深刻理解物理世界如何运作,它获得的可能不只是“叠衣服更快”,而是一套更底层、更强大的隐喻与表征系统,让它处理抽象知识工作时也更强。 换句话说,学会把一件衣服叠得又快又稳,或许并不是家务的终点,而可能是通向下一代通用智能的一块关键拼图。 当数据飞轮真正转起来之后,进步往往不是线性的,而是突然让你意识到——原来门槛已经被跨过去了。 而那一天到来时,我们可能会回头发现,改变一切的并不是舞台上的炫技,而是房间里那件被叠得整整齐齐的衣服。
当 OpenAI 开始卖广告,AI 还能相信吗?最近有个细节让我非常警惕:OpenAI 真的在试水广告这件事了。乍一听你可能会觉得这很正常——互联网公司不都靠广告赚钱吗?但如果把“广告”放进 ChatGPT 这种“对话式助手”的身体里,性质就完全变了。 因为你问它“哪款软件最好用”,它给你的答案会不会不再是“最佳方案”,而是“竞价排名”呢? 当一个本该替你做判断的助手,开始同时扮演销售角色,崩塌的不只是信任,连过去十年很多看似牢固的商业模式,都会被连根拔起。 这期内容我想分享科技思想家、本·汤普森(Ben Thompson)的最新洞察:AI时代,广告会怎么变、购物会怎么变、SaaS 会怎么变。当内容可以无限个性化时,什么东西会更加珍贵呢? 一、什么是“聚合理论”? 聚合理论(Aggregation Theory)是汤普森最出名的框架。 它的核心意思其实不复杂:在互联网时代,价值链的权力中心发生了迁移。 过去,谁掌握供应,谁就说了算。比如报社拥有印刷机和发行渠道,广告主想触达用户,绕不过报社;唱片公司握着版权,分发渠道也在他们手里。 但今天不一样了。今天最有权力的,不是“拥有供应”的公司,而是“直接拥有海量用户”的平台。谷歌、Facebook、YouTube、淘宝、抖音……这些平台掌控用户注意力,也就掌控商业话语权。 于是会发生一件对供应端非常残酷的事:平台把供应商变成“可替换的商品”。 ·新闻网站不再是“内容品牌”,而是搜索结果里的一条链接; ·餐馆不再是“有门面有氛围的体验”,而是外卖平台上的一个 SKU; ·司机不再是“服务者”,而是一串随时可替换的运力。 汤普森用一句话概括就是:谁拥有用户,谁就能重新分配利润。 理解了这个底层逻辑,你就能看懂他为什么对“AI 广告”如此警惕。 因为问题已经来了:ChatGPT 这样的 AI,会不会成为新的聚合者? 如果它真的聚合了“人类的决策入口”,那它会怎么赚钱? 二、OpenAI的广告为:“最糟糕的模式”? 汤普森对 OpenAI 当前的广告设想几乎是毫不客气的批评,他直接用了一个词:“The worst of all worlds”——最糟糕的情况。 当用户在ChatGPT里问“去日本旅行怎么规划”,右侧或者回答旁边出现一个“订酒店”的广告。看起来和搜索广告很像,但在对话式 AI 场景里,它会触发两个致命问题。 1)腐蚀AI最核心的资产——信任 如果我问AI一个问题,它的答案旁边紧跟着一个广告,我几乎立刻就会怀疑: 这个回答到底是客观的,还是为了把我引到广告那边? 注意,这不是“用户敏感”,而是“机制天然导致的怀疑”。因为对话助手的价值在于它替你做判断,而广告的本质是它替客户做转化。当这两种角色塞进同一个界面里,用户没办法分辨:你到底站在谁那边? 汤普森的意思非常明确:AI 最重要的资产不是模型能力,而是用户信任。把广告硬塞进回答旁边,相当于从根上腐蚀这个资产。 2)商业规模其实也有限 从商业角度看,这种“对话内容触发广告”的模式,规模并不会像想象中那样大。 原因很简单:它本质上仍然是“意图广告”,跟谷歌搜索广告的逻辑一样——广告商只能等用户“碰巧聊到某个相关话题”,广告才有机会被触发。 也就是说,能被触发的意图是有限的。 你不聊买房,房产广告就没法出现;你不聊保险,保险广告就插不进来。平台没有办法主动创造需求,它只能守株待兔。 所以汤普森说,这不是一个“既能赚钱又能保信任”的方案,而是一个“既伤信任、又做不大”的方案——于是成了最糟糕的组合。 那更好的模式是什么? 三、不是“谷歌模式”,而是“Meta 模式” 汤普森在这里提出一个非常关键的区分:谷歌模式 vs Meta 模式。 ·谷歌模式:基于你当下的意图。你搜什么,我给你相关广告。 ·Meta 模式:基于对你这个人的长期理解。它不是等你开口,而是主动把你“可能感兴趣但从来没想过要搜”的东西推给你。 也许很多人听到这里会立刻反感:Meta 这不就像“它在不知不觉中对我了如指掌”吗?这不是更可怕、更像侵犯隐私吗? 汤普森的回答非常“现实主义”。他不是从道德角度辩论,而是从“用户真实体验”出发。 他举了自己的亲身经历:回到美国后,他被 Instagram 上的广告质量震惊了。他通过广告买了很多自己根本不知道存在、但买了之后又非常喜欢的东西。甚至开玩笑说:“别给我看朋友发的无聊内容了,多来点广告吧。” 这句话听起来夸张,却恰好点破了 Meta 模式真正的价值: 一个足够了解你的推荐系统,它创造的价值,可能远远大于它带来的隐私担忧。 换句话说,最好的广告不是“插在你提问旁边的推销”,而是“像完美导购一样的发现”。 汤普森实际上在给 AI 广告定一个新方向: AI 不该在你提问时强行插广告,而应该通过长期理解你,替你发现你会喜欢的东西。 这不是监视,而是发现;不是干扰,而是决策支持。 而这也自然引出了下一个问题:如果 AI 能替你发现,下一步是不是就能替你购买? 四、代理商务(Agent Commerce)的三步走 “代理商务”听起来像科幻:用户可以对 AI 说一句“帮我订一个完美的日本蜜月旅行”,机票、酒店、餐厅全搞定。 汤普森的聪明之处在于,他不把它讲成遥远的未来,而是拆成了三个更现实、更容易落地的阶段,其中一些已经在发生。 第一步:更好的用户界面(AI 代替你填表) 当我们在一个不熟悉的网站看到一件喜欢的夹克,过去要注册、填地址、输卡号、点一堆确认按钮。未来可能只需要把链接丢给 AI,说一句“帮我买”,AI 就像机器人一样把所有表单填写和点击都做完。 这一步本质上是“超级智能的自动填充功能”,它省的不是钱,而是时间和摩擦。 第二步:更好的搜索与发现(复杂需求也能被理解) 用户可以用自然语言描述一个复杂需求,比如: “下个月去哈尔滨,要一件能抗零下 10 度、防水、看起来又不像米其林太阳人那么臃肿的夹克,预算 2000 以内,风格喜欢始祖鸟那种。” 以前用这堆关键词在传统电商网站搜,基本很难得到好结果。但AI完全能理解这种复杂又带主观偏好的需求,并给你更匹配的商品。 这一阶段,AI 相当于把“搜索”升级成“理解”。 第三步:持续的用户画像与主动推荐(Meta 模式的终极形态) AI 学习你的数字足迹——浏览历史、点赞、收藏、购买记录——建立一个关于用户品味和偏好的模型。当用户还没意识到自己需要什么的时候,它就主动推荐: “你最近收藏了意大利南部食谱,又看了旅游文章,可能会喜欢一本新出的当地家庭料理书,要不要看看?” 当 AI 走到这一步,它其实就变成了一个非常强大的“购物代理”。汤普森甚至认为:Meta 的广告系统在某种意义上已经非常接近这一步了,它擅长为商家找到那些“还不知道自己需要这个商品”的潜在客户。 五、SaaS 可能“从成长股变成公用事业” 关于“SaaS 黄金时代要结束”的讨论,过去一年越来越多。汤普森的观点很辩证,他先肯定了 SaaS 的基本盘不会消失。 因为 SaaS 的核心逻辑是:花钱请别人做自己不擅长的事。 专业分工是现代企业效率的基石。公司会继续用 Salesforce 管客户,会继续用 Workday 管人力资源,这种需求不会消失。 真正的问题出在增长模式上。 SaaS 的结构性天花板:按席位收费(Per Seat) 绝大多数 SaaS 公司的收费方式是按席位,也就是按人头收钱。公司多招一个销售,就多付一份 Salesforce 的钱。这意味着 SaaS 的增长,长期绑定在客户公司“人头增长”上。 而 AI 的到来,正在让越来越多公司发现:他们可以用更少的人完成同样多的工作,于是缩减招聘,甚至裁员。 当客户公司不再扩人头,按席位收费的 SaaS 增长自然会遇到天花板。 所以汤普森的结论不是“SaaS 会归零”,而是——它们仍然是能赚钱的好生意,但可能不再是投资者眼里的高增长科技股,而会逐渐变成增长缓慢但稳定的价值股,像公用事业一样。 对从业者来说,这句话比投资者更扎心:如果你在 SaaS 公司工作,未来几年你可能要调整对增长速度、股权激励的预期。那种“每年翻倍、靠期权暴富”的高速扩张时代,可能真的要告一段落了。 六、创作者经济的“捆绑困境” 访谈最后一部分,汤普森聊回自己最熟悉的订阅服务——他是付费订阅的先驱之一,讲了两个特别有用的洞察。 1)付费策略:别把免费变付费,而是把付费变“升级” 他从来不会把原本免费的内容突然改成付费才能看。他更喜欢这样说: “你喜欢我每周写的免费文章吗?太好了。如果你愿意付费,我每周会再多给你写几篇更深入的。” 这不是剥夺,而是升级。用户心理完全不同。 2)早期增长的关键:你不仅要证明价值,还要证明“你活得下去” 他曾给自己定目标:一年 1000 个付费订阅者,结果 6 个月达成。他写文庆祝后,24 小时新增 250 个订阅者。后来他意识到:这 250 个人其实早就想订阅,只是在观望——担心他会不会创业失败、干几个月跑路。 当他宣布“我已经 1000 人付费”,这成了一个强烈信号:我活下来了,我可持续。 你会发现,这和我们前面说的“信任”又呼应上了。无论是 AI 还是内容创业,信任都是最硬的资产。 随后他讨论了创作者经济里最难的一个命题:Bundles(捆绑销售)。 平台能不能做一个“Netflix 式套餐”,用户一个月付一笔钱,就能看平台上所有作者的付费内容? 理论上消费者和平台都受益,但核心矛盾在于:顶级创作者没有动力加入,因为他们单打独斗就能赚很多钱,加入捆绑包反而被稀释;而没名气的创作者拼命想加入,于是套餐里要么缺少最吸引人的内容,要么堆满没人看的内容,变成死结。 为什么 Spotify 在音乐领域能成功做捆绑?因为音乐版权高度集中,Spotify 只要搞定少数几家唱片巨头,就能拿到市场上大部分版权;而写作平台面对的是成千上万个独立作者,想把他们统一到一个协议里,组织和谈判难度几乎是“不可能任务”。 这不是运营能力问题,而是供应端集中度决定的结构性差异。 七、AI 越个性化,“共同体验”越稀缺 在访谈的最后,汤普森抛出一个让我印象非常深的观点。 他认为,在一个 AI 可以为每个人创造无限完美个性化内容的世界里,有一种东西的价值会不降反升——那就是共同体验。 当你的信息流、音乐推荐、新闻推送都为你量身定制,与他人完全不同,那些能把我们所有人连接在一起、同步发生、共享的文化事件,就会变得前所未有地珍贵。 世界杯决赛、线下活动、全网讨论的一篇文章……这些东西提供的是一种归属感和共同话题。它们会成为稀缺品。 所以这也留给你一个思考:当信息和内容可以被无限复制和定制时,到底什么会因为它的独一无二和共享性而变得更有价值?这可能不仅关乎我们未来怎么消费内容,更关乎我们怎么在一个日益碎片化的世界里重新找到彼此的连接。
CoreWeave是谁?为什么英伟达最先进的芯片优先给它?有没有想过:从英伟达道GPU到我们最终使用的OpenAI的聊天机器人,中间是如何实现的? 谈到AI,很多人会把注意力都放在“芯片”和“模型”上,却很少认真讨论第三个更难的问题——谁来把成千上万张GPU,组织成一台真正可用的超级计算机? 这不是一个“买卡就行”的问题,像我们买PC一样,回家就能用,而是一个典型的“工程地狱”。 英伟达可以在实验室里把一块新GPU测试到极致,那是它的强项;可当要把几万块这种“最复杂、最娇气”的芯片,塞进真实的数据中心,让它们像一个军团一样24小时持续协作,而且还不能动不动就崩,不能一训练就掉速,不能一拥堵就拖垮吞吐,这完全是另一种能力。 也正是在这个缝隙里,一家很多人还没听过的公司,被推到了舞台中央:CoreWeave。 它表面是一家云服务公司,但它真正做的事,可能更像AI革命背后那台“几乎看不见,却无比强大”的算力引擎。 更有意思的是,这家公司看起来像一个新物种:长着硅谷的脑袋,却跳着华尔街的心脏。它既靠技术和工程吃饭,又能用金融结构把重资产玩到极致,这才是我觉得最值得你花时间看懂的部分。 最近看了巴伦周刊对CoreWeave CEO Mike Intrator的访谈,我们整理了访谈中的核心观点,帮助大家理解AI时代的云计算。 串行到并行,云计算的范式转移 CoreWeave的CEO在访谈里一上来就把话说得很直白:他们不是传统云。 我们熟悉的AWS、Azure这种云平台,本质上是在互联网时代成长起来的,它们最早要服务的对象是什么?网站、APP、企业软件、数据库,这些东西背后的计算模式有一个共同特征:串行。 串行听起来技术味很重,但其实你每天都在用。你处理工作往往是先把任务A做完,再去做任务B,按顺序推进,环环相扣。绝大多数互联网应用也是这种逻辑:请求进来,数据库查询,返回结果,下一步再做别的事情。它需要稳定、通用、易扩展,传统云在这个场景里几乎是完美的。 但训练大模型完全不是这回事。 大模型的训练不是“解决一个大问题”,更像是在一个由几万张GPU组成的集群上,同时处理“几万亿个微不足道的小问题”,把这些小问题的梯度、参数更新、通信同步,像流水线一样不停地循环。 它需要的不是城市里的单行道,而是一条多车道的高速公路,而且车流量大到夸张,还要求所有车队保持队形,不允许有人掉队。 传统云的架构很多时候就像“为单行道设计的城市交通”,而CoreWeave从诞生第一天起,目标就很明确:它就是为这条“百车道高速公路”而生的。 它在硬件之上搭了一层专门为大规模并行计算优化的软件层,核心任务只有一个:把英伟达GPU的性能压榨到极致,让这台由海量GPU拼出来的“超级机器”真正跑得稳、跑得快、跑得久。 CEO在访谈里甚至有点狂,说他们这套方案领先对手好几年。 三合一的创新:技术+基建+金融 很多人理解云服务,第一反应是租服务器、卖算力,差不多就是“硬件租赁生意”。但CoreWeave的逻辑是另一套,它把自己的商业模式拆成三个必须像齿轮一样紧密咬合的部分,而且任何一个齿轮掉链子,整个机器都会失速。 第一块是技术层,前面说过,它要用软件把GPU集群的并行效率做上去,真正让训练变得可控、稳定、可复制。 第二块是物理基础设施。CEO用了一个词叫“行星级规模的算力建设”。想要满足AI井喷的算力需求,就要疯狂建数据中心。这是一门典型的重资产业务,资本开支巨大,建设周期长,运营复杂,还要被能源、土地、政策、供应链各种变量牵着走。 除了技术和基建能力,还有最容易被外界忽略、但却是它真正命脉的第三样东西,那就是——资本运作。 想要在全球范围内铺开“行星级”的数据中心网络并非易事!这不是靠几轮融资就能解决的,它需要动辄上百亿美元的资金,且资金来源必须足够稳定、成本足够低、结构足够精细,否则你光是利息就能把公司拖死。(具体的操作方法我们后面展开。) 于是CoreWeave的真正形态就浮现出来了:它本质上是一家“三合一公司”——顶尖软件公司+重资产基建公司+金融工程公司。这个定义听起来夸张,但后面你会发现,它不这么做根本活不了,甚至也做不大。 为什么不能轻资产? 访谈里有一个细节特别真实:CEO坦白说,他一开始压根不想碰数据中心。原因很简单,数据中心像房地产,太重、风险高、利润薄,还不够“酷”,跟硅谷那种轻资产、爆发式增长的叙事完全不搭。 他本来更想做一个潇洒的轻资产玩家:专注软件和服务,别碰砖块水泥。 但现实很快给他上了一课。随着AI算力需求爆炸,全球能源市场,尤其是电力变得异常紧张。 今天要建一个数据中心,很多时候最难的不是买不到服务器,而是拿不到电,排不到变压器,搞不定并网,过不了审批(这些问题之前马斯克那期也聊到过)。也就是说,在这个时代,扩张速度随时可能被“电”卡住脖子。 于是控制物理资产,从一个他想避免的麻烦,变成了必须拥抱的核心战略:为了保证能以最快速度把AI需要的“高速公路”修到任何地方,他们必须自己去当那个“基建矿工”。 更聪明的是,他们的扩张不是自己画地图瞎建,而是被客户拉着走。一个大客户说“我需要在欧洲有一个新的算力集群”,CoreWeave才启动建设计划,这就保证每一笔几十亿的投入砸下去之前,需求已经锁定,风险被提前压到最低。 这不像硅谷传统叙事里那种“先建起来再赌需求”的故事,更像工业时代的订单驱动——因为只有这样,重资产扩张才不会把自己烧穿。 与英伟达:共生,但不平等 在数据中心里,GPU是数据中心的心脏,那CoreWeave和英伟达到底是什么关系,为什么英伟达会给他们优先提供GPU? CEO用了一句非常精妙的话来形容:共生,但不平等。 共生很好理解:英伟达需要有人把它的芯片真正用到极致,跑出真实世界的性能与问题反馈;而CoreWeave需要英伟达的最先进GPU来维持自己的竞争力与交付能力。 但不平等体现在哪里?一句话,英伟达是定义规则的那根支点。CoreWeave的商业模式建立在英伟达的技术领先之上,一旦英伟达不再是最强,CoreWeave会被最先伤到——这是CEO自己都很清醒的现实认知。 更微妙的部分在于:英伟达在实验室里把芯片测试好是一回事,把几万张新芯片部署到真实数据中心,让它们像军团一样全天候协作作战,才是另一回事。CoreWeave的角色,某种程度上就像英伟达新武器的“首席测试场”和“最佳示范岗位”。 这也解释了一个很多人好奇的问题:为什么英伟达的先进芯片会大笔流向CoreWeave,而不是全部优先给AWS、Azure这种老牌巨头? 因为在这个阶段,英伟达最需要的不是“谁最有钱”,而是“谁最会把新芯片跑起来,并且跑到极致”,谁能最快把新架构变成可规模化的工程能力,谁就更像英伟达在现实世界里的延长线。 (补充:黄仁勋在公开访谈里也提到这点,这是英伟达投资CoreWeave的原因之一,英伟达的CPU也会在CoreWeave试点。) 于是我们可以看到一个反馈循环:CoreWeave帮助英伟达在真实世界里验证新技术、提供海量运行数据、暴露问题并加速迭代;作为回报,英伟达确保CoreWeave能更早、更稳定拿到最先进的芯片。 共生成立,不平等也成立。双方都很现实。 真正颠覆认知的地方:“华尔街的方法” 接下来这段,是整篇访谈里最值得反复读的部分,就是前文提到的第三项创新。 公司CEO本人并不是技术大神,而是来自华尔街的商品交易人。他看问题的角度跟硅谷典型创业者完全不同。他说,硅谷的VC习惯投轻资产、高增长的软件公司,经典剧本是用股权融资赌你未来涨一百倍。但重资产基础设施这种东西,没法靠“讲一个改变世界的梦”就源源不断拿钱。 华尔街的债务市场规则更简单粗暴:把我的钱还给我。融资方必须给投资人一个能被精算师塞进模型里、可以计算风险、可以确保回报的金融结构。 于是他们搞出了一个被称作“盒子”的融资设计。 假设微软签了一份五年期的算力租赁合同,价值几十亿美元。CoreWeave要买一大批最新GPU来服务这份合同,常规思路是拿合同去银行贷款,但他们的做法更精巧:专门为这笔交易设立一个特殊目的实体(SPV),把这笔交易相关的一切像搭积木一样塞进“盒子”里——合同本身(未来现金流保证)、GPU所有权(抵押品)、数据中心租赁合同、购电协议等等,所有关键组件都用法律文件锁进一个独立体系。 更关键的是资金流向:微软支付的钱不进CoreWeave公司的口袋,而是直接进入盒子的账户,然后像瀑布一样按优先级自动分配——先付电费,再付机房租金,再偿还GPU贷款本息,只有这些“天王老子级”的成本都付清之后,剩余利润才会流回CoreWeave。 这套结构对债权人来说相当于一个金融保险箱,因为还款顺序被写死在最高优先级,而且过程自动化,基本不受CoreWeave其他业务波动影响。风险被压到最低,资金成本自然就能降下来。 这也是为什么CEO强调:CoreWeave买GPU从来不是投机,他们不是赌未来有没有人租,而是恰恰相反——每一批几十亿美元的GPU,在下单之前,未来五年的使用权就已经被大客户用长期合同预售锁定,合同结束时贷款刚好还清,CoreWeave不仅拿到稳定利润,还“免费”留下了一批仍有价值的GPU资产。 CEO把这块残值与期权价值称为“Equity Slug”,可以把它理解成:一份被金融结构保护过的“硬件期权”。 这就是华尔街的玩法:把看似风险极高的重资产投资,拆解成风险可控、回报明确的债务产品,从而撬动传统VC根本不敢碰的债务市场资本。 “资本内循环”的回应 聊到这里,很多人会立刻提出质疑:微软投了OpenAI,OpenAI是CoreWeave的大客户,CoreWeave又是英伟达的大客户,而微软和英伟达本身关系紧密,甚至还有交叉持股,这不就像一个资本内循环吗? CEO没有直接反驳,而是给了一个比喻:如果全世界突然出现系统性的铜矿短缺,需求是供给的十倍,开采、冶炼、加工这些环节为了锁定产能、提高效率,必然会形成极其紧密的合作,甚至相互投资。这不是阴谋,而是资源极度稀缺下的理性选择。 他的意思很明确:今天的AI领域,正在经历一场系统性的算力短缺。无论是云巨头,还是芯片制造商,拼尽全力也供不应求。 在这种史无前例的建设速度与需求压力下,巨头间的协同与绑定并不奇怪,它更像一种被现实倒逼出来的协同作战。 对于我们的意义:算力成本指数下降 最后那个数字,才是真正应该让我们停下来想一想的。在访谈最后,CEO抛出一个数字,我觉得几乎可以当成这轮AI革命的注脚: OpenAI处理100万个token的成本,在GPT-3时代大约是39美元,而今天已经降到9美分。 从39美元到9美分,这种下降速度意味着什么?意味着曾经遥不可及、只有巨头才玩得起的计算能力,正在快速变成一种可被普遍使用的基础设施。 当算力像自来水一样便宜,真正值得思考的问题就变了:我们的注意力可能还停留在巨头发布的震撼模型上,但当数以百万计的小团队甚至个人都能负担得起这项技术时,会涌现出哪些我们今天根本想象不到的、小众的、个人化的应用?下一波真正颠覆性的创新浪潮,会从哪里冒出来? CoreWeave的意义可能不在于它多会融资、多会建机房,而在于它正在把AI的“底座”做成一种可规模化、可复制、可扩张的工业能力。 真正的变化,往往就藏在这种不太起眼的地方。
程序员的末日?黄仁勋如何看待AI对软件的冲击?编程正在变成商品。 最近的思科 AI 峰会上,他把这件事讲得更系统。他的观点不仅对投资AI、公司经营管理、企业AI 转型有帮助,也会直接影响我们每个人的工作方式和未来选择(比如下一代的教育培养)。 为了把这场对话里那些高密度的观点讲清楚,我沿着他的逻辑线,把它拆成几个能落到日常工作、投资判断、职业选择里的“内核洞察”,,分享给大家。 文章最后,我会结合黄仁勋和微软 CEO 纳德拉的观点,回答开头那个价值千亿的问题:软件公司会不会完蛋? 1)60 年来计算机领域最根本的变革 黄仁勋说,我们正在经历一场 60 年来计算机领域最根本的变革。之所以称得上“最根本”,不是因为算力更大、芯片更快,而是因为我们跟计算机打交道的方式整个变了。 过去 60 年,我们是怎么使用计算机的?本质上是这样一件事:人类要先去学它的语言。你得学 COBOL(他们显然是拿这种上古语言来开玩笑)、学 C++、学 Python,然后一行一行告诉它“第一步做什么、第二步做什么”,像在对一个没有常识、但执行力超强的机器人下命令,而且命令必须绝对精确,错一个符号都可能崩盘。 这套模式就是所谓的“显式编程”:把过程写成规则,把意图拆成步骤,计算机只负责机械执行。 问题在于,显式编程是一种对人类很不友好的交互方式,不是因为它不好,而是因为它要求人类迁就机器:你得按机器能理解的方式表达世界。也正因为如此,软件开发长期被视为高门槛技能——你不仅要理解业务,还要把业务翻译成可执行的形式化语言。 黄仁勋一针见血地指出:我们正在进入“隐式编程”的时代:你不再需要告诉计算机怎么做,你只需要告诉它你想要什么。换句话说,意图本身变成了新的编程语言。 他举了一个简单到近乎幼稚的例子:你说“我想要一张小狗在月球上开车的图片”,系统就能给你生成。你并没有教它什么是小狗、什么是月球,更没有教它怎么画、怎么构图、怎么上色,它却能理解并完成任务。这个变化看起来轻描淡写,但背后的含义非常大:当“意图”可以直接驱动产出时,很多传统意义上的“技术门槛”会被重新定义。 这也是我周末那次“盲人编程”体验最震撼的地方:我没有学会编程,但我完成了部署;我看不懂代码,但我把功能跑通了。你一旦意识到这件事,很多行业估值逻辑都会开始松动,因为软件行业过去几十年最坚固的护城河之一,就是“生产软件的人很稀缺”。 2)从聊天机器人到智能体代理 黄仁勋强调另一个关键点:AI 本身也在进化,我们现在熟悉的“聊天机器人”形态,很可能很快就不够用了。他用的词是 AI Agent(智能体)。这不是换个名字的营销包装,而是能力结构的升级。 如果用一个贴近工作场景的比喻,我们现在用的AI,多数时候像一个“知识很渊博的实习生”:人们问问题,它基于知识库给你答案,信息量很大,但它通常停留在“给信息”的阶段。最后可以得到了一堆资料、一堆建议、一堆链接,接下来真正要把事情办成,还是得自己动手。 而 AI Agent 更像一个能独当一面的项目经理。区别不在于它知道得更多,而在于它的工作方式变了:它会把目标拆成任务,会反问关键约束,会规划路径,会调用外部工具,并且把执行闭环做出来。 当我们对传统聊天机器人说“帮我规划一次东京旅行”,它大概率会给一堆攻略;但如果对 AI Agent 说同样的话,它会先问预算、偏好、出行结构,然后自己查实时机票和酒店价格,比较多个方案,甚至直接完成预订,最后把行程同步到你的日历里。到了这一步你会意识到:它不是在搜索,它是在执行,而且是在执行一个复杂任务。 黄仁勋把这种能力概括得很到位:智能体会推理、会规划、会使用外部工具,而且还知道自己不知道什么,并主动做研究补齐信息。对商业世界而言,这意味着未来你雇用的可能不只是人类员工,还有 AI 员工,而且这种员工会以极快速度学习和进化。 3)企业投AI不应该先算ROI 当 AI Agent 这种“超级强大的新员工”出现之后,管理者的第一反应往往是:我投多少钱?回报率是多少?ROI 能不能算清楚? 黄仁勋的建议反直觉:别在一开始就算计 ROI。他的理由很现实:面对这种颠覆性技术,你根本不可能用一张 Excel 表格预测它未来能带来什么。你今天能算出来的东西,通常只覆盖你已经理解的那部分可能性,而真正改变行业的机会,往往来自你尚未想到的用法。 因此他主张“百花齐放”,鼓励公司内部进行各种小规模但大胆的实验。他用的比喻很妙:对待员工提出的新想法,要像对待自己的孩子一样。 孩子说“我想学画画”,大多数父母会先说“好啊”,然后再问“为什么想学”。而在公司里流程常常反过来:先问“为什么要做、有什么用、能带来什么结果”,问完再决定给不给资源。 黄仁勋认为该把心态反过来:先说 yes,再问 why。不是鸡汤,而是一种适应不确定性的管理策略:技术范式剧烈变化的时候,你最怕的不是浪费一点试错成本,而是因为过早的审查机制,把通向未来的新路径扼杀在起点。 4)思维方式的转变:富足心态 黄仁勋把前面的建议归到一个更深层的思维模式上,叫 Abundance Mindset(富足心态)。很多人第一次听会误解成“不差钱、随便花”,但它不是财务意义上的富足,而是对计算资源趋势的判断。 他提出一个非常夸张但极具解释力的对比:在过去十年里,AI 的算力进步速度比摩尔定律快了“百万倍级”。 摩尔定律已经非常了不起了,大约每 18 个月性能翻倍;而“百万倍级”的进步意味着我们对“计算稀缺”的直觉会在很短时间内彻底失效。 一旦我们接受这个前提,就会发现很多组织的优秀习惯,正在变成包袱。过去因为算力昂贵、稀缺,我们养成了节约型思维:少跑实验、少做模拟、压缩搜索空间;但在富足时代,这些思维反而会变成最大的障碍。你需要假设速度几乎无限、边际成本趋近于零,用这种心态重新思考问题,才能发现全新的商业模式。 他举医药研发的例子非常直观:过去只能从上亿种分子结构里挑几种最可能成功的去模拟,像在草堆里凭经验找针;但在富足心态下,你的指令会变成“把整个草堆都给我分析一遍”,甚至让 AI 去创造人类以前没想过的全新分子结构。此时你追求的不再是效率提升,而是从“捞针”变成“造针”。 更关键的是,当你还在为节省一点算力成本而沾沾自喜时,竞争对手可能已经在用富足心态重构产品、重构流程、重构增长曲线,你输掉的不是成本,而是战略。 5)原子公司 vs 电子公司 当“计算方式变了”“组织要大胆实验”“算力进入富足时代”这三条线汇合在一起,黄仁勋给出一个极具冲击力的判断:所有公司都面临一场生存之战,一场原子公司与电子公司之间的战争。 原子公司把价值建立在物理世界里:实体乐园、发动机、门店网络,这些扩张受物理定律限制,成本高、速度慢;电子公司以数据、软件和网络为内核,复制与分发成本几乎为零,可以瞬间扩展到全球。这些案例生活中比比皆是:Disney 对 Netflix,梅赛德斯对特斯拉,沃尔玛对亚马逊。 这也就把一个问题摆到所有传统企业面前:企业要怎么变成一家电子公司?如果一家制造企业,比如家具厂,难道不生产桌子椅子了吗?当然不可能。 黄仁勋的答案是:关键在于将你的内核业务数字化,让电子成为推动原子的大脑。家具厂仍然做实体,但客户可以用自然语言描述需求,AI 立刻生成 3D 设计图与报价;它还可以通过数据预测流行款式,优化库存与生产。 实体业务没变,但驱动业务的智能内核从人的经验变成了可无限扩展的电子大脑。 6)AI时代最值钱的资产 如果说前面讲的是组织与商业模式,黄仁勋最后抛出的观点更直接刺向每个人:未来你所在领域的专业知识,也就是 Domain Expertise(领域专长),才是最宝贵的资产,而不是编程能力。 他甚至直言,编程正在变成一种商品,就像今天的打字一样。这句话听起来像在“贬低程序员”,但他的逻辑其实是:当 AI 能理解意图,“怎么写代码”这一环节会越来越多被自动化。 然而,AI 替代不了的,是你对行业的深刻理解、对场景的判断、对审美与标准的把握、对客户心理的洞察。 换句话说,未来更值钱的不是“会不会写代码”,而是能不能提出对的需求、对的约束、对的目标,并且能不能判断结果好不好(其实这些在当下不也是)。 7)企业最宝贵的IP 如果说“领域知识是核心资产”,那么下一步就会遇到一个很具体的问题:企业该怎么让 AI 学到这些知识?是不是把商业机密、客户数据全都上传到云服务商,让他们帮忙训练模型就好了? 黄仁勋说,不行,等一等。他给了一个听起来很笨、但极其关键的建议:一定要亲自动手,打开引擎盖,换换机油(Lift the hood, change the oil)。哪怕规模再小,也要自己建一个计算系统。因为这关系到如何保护你公司最核心的知识产权。 然后他抛出一个很狠的判断:一家公司最宝贵的 IP,不是已经找到的答案,而是正在思考的问题,问题才是 IP。 在战略会上讨论的“如何进入东南亚”“对手突破点在哪里”“定价怎么打击对手”,这些问题本身就暴露了公司的战略意图,管理层的焦虑和野心。就像一个人和心理医生的对话,哪怕没有结论,对话内容本身就是秘密,当然不希望泄露出去。 这其实也解决了长期以来企业究竟该选择公有云还是私有云的问题。黄仁勋推崇混合云模式:标准化应用可以在公有云上,但涉及核心战略思考、需要用最珍贵领域知识训练 AI 的部分,必须放在企业自己可控的系统里。 到这里,云还是自建就不只是成本问题,而是安全与生死存亡的问题。 8)企业AI 的终极价值是“机构记忆” 顺着这条逻辑线走到最后,黄仁勋把“人在回路中”这个概念彻底翻转了。过去我们说 Human in the loop,是AI做事,人站在旁边纠错;他认为未来应该是 AI in the loop,像水和电一样融入每一个流程。 当AI进入流程,它会持续向每位员工学习,学习顶尖销售怎么沟通,学习资深工程师如何判断故障,学习 CEO 如何做决策,然后捕捉每一次洞察、每一次经验、每一次成功的判断与失败的教训,最终变成公司活的、持续增长的知识库。 一个员工离职,带走的只是个人记忆,但他的经验有一部分已经被公司的 AI 吸收并传承下去,于是组织智能不会因人员流动而流失,反而会像滚雪球一样累积与增强。 这就是他眼中 AI 对组织的终极价值:不是某个部门效率提升,而是企业的“机构记忆”被重构了。 10)那么,软件公司会不会完蛋? 软件会不会被AI吞噬,黄仁勋提出一个非常重要的方向:工具使用。 一个强大的通用人工智能,也就是我们想象中的 AGI,不会去重新发明那些成熟的优秀工具,而是直接使用它们。超级机器人要拧螺丝,不会重新造一把螺丝刀,而是从工具箱里拿出来用;这也解释了为什么机器人往往要做人形,因为人形更能适配人类为自己设计的工具体系。 同理,一个数字世界的 AGI 需要做客户管理,它可以直接调 Salesforce 的 API,不需要重新发明 CRM;它需要做企业资源规划,可以直接调用 SAP,而不是从零造一个 ERP。AI 的作用更像是整合和调度,而不是重新发明轮子,这也解释了为什么“工具使用”会成为当前 AI 领域的热门突破方向。 也正因为如此,开头那个问题的答案可能没有那么简单粗暴:很多软件公司未必会消失,它们更可能会被 AI 整合、被 AI 调用,甚至在某种新分工里获得新的增长曲线;但与此同时,也一定会有一部分软件的生存空间被挤压,甚至被彻底取代,因为它们本质上只是“重复劳动的界面层”,而不是不可替代的能力资产。 11)IT的黄金时代 黄仁勋还有一个惊人的观察:我们所处的 IT 行业大概是一万亿规模,历史上 IT 行业更多是在为其他行业“卖水、卖铁锹”;而 AI 让 IT 第一次有机会直接进入全球经济的主体,到一百万亿的巨大市场里挖金矿。 他举了一个“数字司机”的例子:一辆车的硬件价值可能就几万美元,但一个能提供终身服务、不断学习进化的数字司机,它的终身价值可能远远超过车本身。 如果把这个例子放大到企业,就会明白他为什么强调“AI in the loop”,因为一旦 AI 变成组织的机构记忆,很多价值就不再来自单次售卖,而来自持续服务、持续学习、持续进化带来的长期现金流。
马斯克的“太空AI工厂”的物理经济学把AI数据中心送上太空,听起来像科幻片的开场白,热闹、有想象力,但离现实很远。 一开始我也以为这又是马斯克式的“未来叙事”。直到我把他在 Dwarkesh Patel 与 Stripe 联合创始人(兼总裁)John Collison 的那场长访谈听完,才意识到这一次他不是在讲“愿景”。 很多人都听过马斯克的第一性原理,这次我们就来看看他是怎么用这套方法论证太空AI工厂的可行性的。 马斯克从散热、供电、材料、运维这些硬邦邦的物理约束出发,一步步推导到经济成本与扩张上限,最后得出一个看似疯狂、但逻辑极其闭合的结论——未来决定 AI 上限的,不是算法,而是能源与制造;如果地球的物理系统跟不上,就必须跳出地球,换平台。 这篇文章,我会沿着他在访谈里搭起来的那条逻辑链,把“太空 AI 数据中心”这件事讲清楚:地球到底卡在哪里,太空为什么反而可能更便宜,最后他的蓝图会把人类带去哪里。 一、为什么要跳出地球? 马斯克认为:AI 芯片的产量在加速翻倍,算力系统的规模在指数级增长,但地球的能源供应与基础设施扩张速度完全跟不上。 这就好比:我们造出了越来越多的超级跑车,结果发现加油站、油罐车、输油管线、炼油厂、配电站全都没扩建,跑车越多,堵得越死。 更关键的是,这堵墙并不是一块砖头,而是一整套交错咬合的系统,任何一环拖慢,最终都会把“算力扩张”拖进泥潭。 在美国这样的市场环境里,一家企业不是想建电厂就能建。一个大型太阳能电厂也好,一座新的电厂也好,从选址到审批,听证会、环境评估、社区协调,耗掉几年并不稀奇,而且充满不确定性。 马斯克在访谈里举了一个很现实的例子,他自己的 xAI 团队为了给大模型建一个千兆瓦级别的数据中心,过程几乎像噩梦一样。原本在田纳西州谈得差不多,审批环节卡住,团队不得不紧急掉头,转去几英里外的邻州密西西比,从零开始重新规划电厂与高压线。 等审批奇迹般通过,你会发现真正的瓶颈还在后面:设备交付周期可能更长,尤其是电网所需的大型变压器,动辄就是“按年计”的交货周期。 马斯克说了一些外行根本想不到的深层次瓶颈,比如燃气轮机里的关键部件——叶片与导叶。它们不是普通金属片,而是要在高温高压环境下长期稳定工作的单晶精密铸件,性能直接决定发电厂效率与安全。 所以马斯克把这些叫做“硬件的硬道理”,并提醒那些仍然用“纯软件思维”理解世界的人:我们马上要迎头撞上一堵墙,这堵墙就是物理与供应链。 聚焦到数据中心本身,马斯克指出来人们在计算功耗的时候常犯的错误: 很多人算数据中心功耗就像算汽车油耗,只算车在路上跑时的那一段。他们盯着 GPU 的标称功耗,以为这就是全部,结果把真正决定供电规模的“隐藏成本”忽略得一干二净。 事实上,GPU 只是一个开始。 首先是冷却系统。尤其在像孟菲斯那种又热又潮湿的地方,为 GPU 降温的额外能耗可能非常可观,他在访谈中提到过“可能额外增加 40%”这样的量级,这还没算更复杂的液冷、热交换、冷却塔等配套系统的建设与维护。 接着是网络交换机、CPU、存储设备,这些并不是可有可无的点缀,而是整个训练集群的骨架和血管,它们同样吃电。 最后还有一个在大规模系统里必不可少的东西:冗余。数据中心总得有备用电源,要应对发电机维护、意外停电、线路故障。按他的说法,可能需要准备 20%~25% 的冗余电力。当我们把空调、网络、存储、冗余一项项叠加起来,最终所需发电量可能比“纸面上只算 GPU”多出一倍甚至不止。 这就是马斯克想强调的残酷之处:在地球上扩大 AI 算力,越来越像在一张已经画满的图纸上硬塞进一个庞然大物,公司面对的是监管、供应链、物理设施、甚至热力学定律交织成的一张网,牵一发而动全身。 于是他提出一个看似“逃离现实”的答案:与其在这个旁根错节的系统里挣扎,不如换一个平台,一个规则完全不同的地方。 这个地方,就是太空。 二、太空为什么可能更便宜 问题来了:去太空不是更贵吗,怎么可能反而更便宜? 马斯克提供了意想不到的答案,他对比了太空太阳能和地面太阳能两种完全不同的经济模型。 在地球上,太阳能最大的敌人不是技术,而是夜晚。为了让城市在太阳下山后还有电,你必须配套规模巨大且成本高昂的储能系统。 马斯克在访谈里甚至提到,在很多大型光伏项目里,电池储能的成本可能会超过太阳能板本身。也就是说,地面太阳能的经济性,往往不是被“发电”决定,而是被“把电存起来”决定。 而在太空的场景里,如果选择合适的轨道与系统架构,太阳能可以获得更长的有效发电时间,甚至接近连续供能。 这意味着可以把原来太阳能体系里最笨重、最昂贵、也最拖累成本曲线的储能电池大幅削弱甚至在某些设想里直接删掉。 当“有效发电时长显著提升”与“储能成本大幅下降”这两件事叠加在一起,马斯克认为太空太阳能 AI 数据中心的成本效益可能出现数量级跃迁。他甚至抛出了“5 倍效率”“10 倍成本效益”这种极具冲击力的估算。 你可以不接受这个倍数,但你很难否认他推理的方向:如果你能把太阳能的最大成本项从系统里拿掉,那么经济模型就会彻底变样。 他还补了一个更反直觉的细节:给太空造的太阳能板,某些情况下甚至可能比地面上的更便宜、更容易,因为太空里没有风暴、冰雹、雨雪,你不需要用厚重玻璃和坚固金属框架去保护它,可以用更轻薄的材料把它像“展开一幅画”一样部署开来,重量和制造成本都有可能下降。 当然,他马上加了一个前提,而且这个前提几乎决定一切:进入太空的成本必须足够低。 这里,星舰的战略意义就凸显出来了。 马斯克把整个计划的地基压在“可完全重复使用的重型火箭”上,因为只有当发射变得足够高频、足够低成本,太空才可能从昂贵的实验室变成一个有成本效益的工业区与能源基地。 他在访谈里谈到过一种典型愿景:把进入太空的成本从“每公斤几万美元”拉低到“几百美元甚至更低”。你可以把它理解成一个极端的成本曲线改写目标,而不是已经发生的事实,但一旦这种曲线真的被改写,那么很多此前看起来荒诞的构想会突然变得“可以算账”,太空数据中心也就不再只是科幻,而是工程与资本可以尝试的选项。 也正是在这里,你会发现马斯克的思路一贯一致:他不靠“解释世界”,他靠“改变约束”。当约束被改变,商业模型会自己长出来。 三、那么,GPU要如何维护? 只要认真想过一次“太空数据中心”,第一个问题几乎一定是:GPU 坏了怎么办,难道派宇航员去修吗? 马斯克的回答很有代表性,因为他没有绕开困难,而是把困难重新定义成“可工程化解决”的问题。他引入了半导体工业里很经典的可靠性概念——浴盆曲线:一个芯片生命周期中,故障率最高的阶段往往发生在刚出厂的头几个小时或几天,这段时间属于“夭折期”;一旦通过夭折期进入稳定工作期,随机故障率会显著降低。 他提出的策略不是“设计复杂的在轨维修体系”,而是相反:在发射前把可靠性做到极致。 也就是说,通过严格老化测试、筛掉早期缺陷,把系统带到太空的那一刻,就尽可能让它进入低故障率的稳定区间,以此换取“很少需要维修”的运行方式。 相较于在地球上面对审批与供应链扯皮这种不确定的社会系统摩擦,太空里的挑战虽然难,却更像“纯粹的技术问题”,可预测、可优化、可迭代。 四、芯片产能:太空AI工厂的约束 在访谈中,马斯克甚至抛出一个惊人的预测: 若干年后,每年新发射到太空的 AI 算力,可能会超过地球上当时存量的 AI 算力总和;换算成供能规模,可能是数百吉瓦(GW)级别的计算能力部署在轨道上。为了实现这样的运量,他甚至谈到“每年上万次发射”的工业节奏。 这已经不再是传统意义的航天,而是太空物流,是像集装箱航运那样的高频基础设施运行。到那时,“发射”不再是一场新闻事件,而是工业体系里像卡车出库一样普通的动作。 而当太空能源近乎无限之后,瓶颈会像聚光灯一样瞬间转回地球,照在芯片制造本身,因为你必须在地球上以同等规模持续生产芯片与内存,才能喂饱轨道上的算力工厂。 在特斯拉最新一季的财报中,马斯克就提出了TerraFab的想法:一种规模和整合度都远超今天的超级工厂。 马斯克在访谈里的描述大意是:现有的“千兆级工厂”已经不够看了,要满足太空级别的需求,必须把制造整合到一种前所未有的程度,甚至从最基础的原材料环节开始,把提炼、材料、制造、封装等多个环节在一个超级系统里打通,形成万亿级别的工业体量。 这件事听起来离谱,但它的逻辑仍然很“马斯克”:当能源约束被解除后,制造约束就是新的天花板;要突破天花板,就把制造本身做成下一代基础设施。 更疯狂的是,马斯克还瞄上了月球。他认为月球土壤富含硅与铝,硅可以用于芯片与太阳能板,铝可以用于结构材料。设想是把最精密、最轻的设备从地球运过去,然后在月球利用本地资源大规模生产太阳能板和卫星结构,从而进一步降低对地球发射的依赖。 他甚至提出了“质量驱动器”(mass driver)的构想:一个架在月球表面的巨型电磁加速器,可以把它粗暴理解成“太空弹弓”或“巨型电磁炮”。因为月球重力低、没有空气阻力,理论上可以用电磁加速把货物直接“甩”到深空轨道,减少对火箭燃料的依赖,从而把部署规模推向更夸张的数量级。 这一段听起来很科幻,但马斯克真正想表达的仍然不是浪漫,而是工业逻辑:当能源与运力都被极限放大后,AI 算力的扩展边界就不再是地球,而是太阳系。 结语 到这里,马斯克太空数据中心的结构就非常清晰了。 第一步,用可重复使用的 Starship 把上太空的成本曲线打下来,让“太空工业化”从不可算账变成可算账。 第二步,利用太空太阳能的经济模型,试图绕开地球电网与储能的系统性瓶颈,把 AI 的能源约束外移。 第三步,在地球甚至月球构建前所未有的超级制造体系(TerraFab),为轨道算力供给硬件,让“近乎无限扩展”不再被制造端卡死。 你可以不相信他能实现,但你很难否认一点:这是一套环环相扣的工程—经济推演,目标是把 AI 产业从“软件时代”推入“物理时代”,跳出地球去解决AI行业的物理限制。 马斯克在访谈最后抛出的那句更深层的判断:他相信未来 AI 的“智能总量”会远超全人类智能总和,纯 AI 与机器人组成的公司,其运营效率可能远超任何有人类参与的组织。 顺着这条推论往下走,我们会得到一个让人背脊发凉的问题—— 如果未来这个星球上绝大多数的思考与生产,发生在一个物理上与我们分离的地方,发生在寒冷的轨道上、遥远的月球上,当那股最强大的力量不再是身边的工具,而成为“天上的某种存在”,它会如何重塑人类与智能之间的关系,又会如何重写文明的权力结构?
谷歌1850亿、亚马逊2000亿:AI军备竞赛打到“重资产时代”,该兴奋还是害怕?先看一组数字。1850亿、2000亿,而且是美元! 这些数字的体量几乎是一些国家的预算,很难把它和我们熟悉的科技公司联系起来,更难想象它会出现在同一个时代、同一个赛道、同一张表里。 可它确实发生了。砸下这笔真金白银的不是政府,不是主权基金,也不是某个基建狂热的国家,而是地球上最强的那几家科技公司:Alphabet、微软、亚马逊、Meta……他们在为未来的AI时代铺设基础设施,规模大到像一张军备竞赛的作战地图。 更关键的是,这场竞赛不是嘴上喊口号,而是用资本支出这把最硬的尺子,把每家公司的野心、判断、焦虑和战略暴露得清清楚楚。 今天我们就干一件事:把这场由AI驱动的资本支出狂潮拆开看看——谁在花钱,钱花到哪里,为什么非得这么花,以及最重要的,这一切对你到底意味着什么。 因为它确实是一场豪赌,赌的不是下一季的财报数字,而是下一个十年的科技霸权。 1)科技巨头集体转型:从软件到基建狂魔 如果把时间线拉长,会发现一个特别反直觉的变化正在发生:过去十几年,科技巨头给人的印象一直是轻资产、高利润、现金流充沛的“印钞机”,尤其是软件与互联网公司,规模越大越像生意模型的终点——不需要太多固定资产,利润率却能一路上扬。但AI彻底改变了这套轻资产叙事。 巨头的资本支出从2023年开始陡峭上升,而且速度并没有减缓。Alphabet最新财报会上预计2026年的资本支出将达到1750亿到1850亿美元。 这是什么概念?这个规模已经可以和不少国家的年度GDP掰手腕。 更重要的不是“钱很多”,而是它标志着一个根本性的转变:这些过去被定义为“轻资产”的科技公司,正在集体转型成重资产的基础设施型公司。 有人把这种变化形容成“基建狂魔”,听起来像段子,但细想一下又很精准:AI时代的竞争不再只是产品层面的迭代,而是要先拥有足够的算力、足够的电力、足够的数据中心与网络能力,才有资格谈模型、谈应用、谈生态。 我们可以把它理解成“信息高速公路”的新一轮修建,只不过这一次高速公路不再是光纤,而是由GPU、数据中心与电网共同组成的算力网络。 Alphabet那笔巨款的用途才会被拆得很清楚:大概六成用来买算力核心——英伟达GPU,以及它自己研发的TPU;剩下四成用来修更大的数据中心。 这笔天量开支实际上是战略宣言:它是在用算力构建护城河,并且希望把“后来者几乎不可能跨越”这件事,变成一种事实。 如果说Alphabet的1850亿让人震惊,那么微软的紧迫感更让人侧背发凉,因为它不像在做一份商业计划,更像在发一份战争动员令。 微软在2025财年第三季度单季资本支出达到349亿美元,同比增长75%,同时纳德拉还说要在两年内把数据中心足迹扩大一倍。微软通过与OpenAI的合作,已经在应用层抢到了先机,Copilot、Azure的AI服务、企业客户对AI的迁移需求都在推着它往前跑。如果基础设施跟不上,先机就会变成“兑现不了的承诺”。 微软的逻辑是:谁能提供最稳定、最庞大的算力,谁就能在未来几年锁定最大份额的企业客户。企业客户不会只买一个模型的故事,他们要的是可用、可扩展、可交付、可稳定计费的算力供应。先机并不等于胜利,先机只是逼你必须把下一步做对——而下一步就是“基建”。 刚刚发布财报的亚马逊甚至喊出2026年2000亿的资本开支,这种豪赌让人不由得想起当年亚马逊做AWS时的那种执拗。 在短暂收缩之后,CEO贾西把火力重新对准了云计算AWS,并把这轮机会形容为“一生一次”。事实上,在云服务这条赛道上,亚马逊的回报路径是所有巨头里最清晰的那类——它本质上是在建巨大的AI工厂,然后把算力像电一样按需出租给成千上万的企业客户,直接变现。 如果说传统软件是卖“座位”,那云服务卖的是“用量”,而AI则把这种“用量生意”推到一个更大的尺度。可以把它理解成公用事业公司收电费的逻辑:投资越重,回报越慢,但一旦形成规模与定价权,现金流的稳定性会强得可怕。 Meta这家公司最有戏剧性,因为两年前它还在把宝押在元宇宙上,现实是被市场一顿暴打;而现在扎克伯格说要在构建高效AI底层设施方面成为行业领先者,听起来像是180度转身。 问题来了:这笔钱到底是为元宇宙铺路,还是元宇宙已经不讲了,全面转向AI? 投资AI和元宇宙并非毫无联系,看上去更像“一体两面”。扎克伯格赌的仍然是下一代计算平台,只是他终于承认,未来的交互、内容生成、虚拟世界的构建,都必须建立在更强的AI之上。换句话说,AI不是元宇宙的替代品,而是元宇宙想活下去的前提。 同时,Meta这轮投资还有一条更现实的回报路径:它可以用AI强化当下Facebook和Instagram的广告推荐系统,而这件事已经见效了——推荐算法带来的广告收入反弹,就是最直观的现金回收。 于是,Meta的“千亿赌局”其实分成两段:一段是为了今天,守住现金牛;另一段是为了遥远的明天,继续押注新平台的诞生。 2)七巨头中的三个“异类” 在这场狂欢里,七巨头有四家积极参与AI资本开支的军备竞赛,而另外的三家则各不相同,显得格外异类。 首先是苹果。它的资本支出多年稳在大约100亿美元左右,跟前面几家动辄千亿级别的投入相比,简直像勤俭持家的典范。这很容易让人误解为“苹果不看好AI浪潮”,但更准确的理解是:苹果选择了借力打力。它把资源集中在自己最擅长的地方——软硬件结合的用户体验,以及端侧AI芯片(神经引擎)的优化。苹果的赌注是,很多AI应用最终会在个人设备上本地运行,而不是全在云端。这是一条完全不同的路线:不去修算力铁路,而是等铁路修好后,用更好的终端和生态去吃红利。 然后是英伟达。它几乎是这场竞赛的“军火商”:自己不参战,但所有参战方都得向它买武器。黄仁勋预测未来全球每年数据中心投资可能达到1万亿美元,听起来像站在金矿上招呼大家快来挖——但英伟达确实有底气。只要巨头们还在建AI工厂,英伟达的铲子就不愁卖。 最后是特斯拉。它的玩法完全不在同一个维度。马斯克宣布的那200多亿元投资,不是为了通用的云服务,而是为了Cybercab、Optimus这类由AI驱动的实体产业。它赌的是“去人力”的物理世界重构,一旦成功,回报可能是颠覆性的;一旦失败,投入也可能变成沉没成本。这也是为什么特斯拉被很多人视为风险和潜力都最高的选项:它不是在抢算力份额,它在赌新行业的诞生。 到这里我们会发现一个事实:大家都在谈AI,但花钱的方式和战略目标天差地别。所谓“AI军备竞赛”,其实不是一场比赛,而是多场比赛叠在一起同时开打。 3)华尔街的纠结:害怕泡沫,更怕错过 这也解释了市场的过山车式反应。 当Alphabet宣布天价投资计划后,股价先暴跌超过6%,又迅速反弹。你很难找到比这更形象的画面来描述华尔街的纠结:一方面怕巨额开支拖垮利润和自由现金流,另一方面又怕自己站在场外,眼睁睁看着“下一个AWS时刻”发生在别人身上。 于是核心问题浮出水面:我们现在经历的究竟是下一个伟大的机遇,还是又一个危险的泡沫? 很多人的第一反应会想到2000年的互联网泡沫。当年所有人都相信互联网是未来,于是疯狂投资铺光纤、建数据中心,结果需求远远跟不上供给,光纤利用率不到10%,2001年美国电信行业的平均资本回报率甚至是负的82.8%——那不是回报率低,那是资本被摧毁。 对投资者是灾难,对社会却未必是坏事,因为过剩的光纤和数据中心,后来被谷歌和亚马逊用极低价格收购,反而成了后面十几年互联网与云计算繁荣的基石。 这就是历史最吊诡的地方:修铁路的人不一定赚钱,但铁路会让新的巨头诞生。 更乐观的剧本是AWS。2006年之后,贝索斯顶着质疑投巨资建数据中心,所有人都觉得他疯了,一个卖书的去做这么重的资产;事后证明,这是科技史上最成功的投资之一,AWS成了亚马逊的利润奶牛。 今天这轮AI基建潮更像哪一个?是注定要破裂的泡沫,还是下一个AWS的诞生? 把它简单类比成2000年泡沫并不准确,因为这次有几个关键的不同。 第一,投资主体不同。现在下场的是少数几家拥有巨额现金流的科技巨头,他们用自己赚的钱在投,不是依赖VC续命的创业公司。就算短期回报不佳,他们也输得起,不至于资金链断裂式崩塌。 第二,需求的可预见性更高。今天的投资不是建立在“网站流量的想象”上,而是建立在企业订单和算力需求之上。资料里提到谷歌云未履行合同金额同比翻倍,微软也反复强调Azure的AI服务供不应求,这些都意味着需求并非空中楼阁。 第三,竞争格局不同。从一开始就是寡头游戏,新玩家的入场门槛高到不可思议。你可以不喜欢寡头,但它客观上降低了“无序扩张”那种泡沫式浪费的概率。 不过,这并不代表风险消失了。风险只是升级了:不再是“会不会有人破产”,而是“回报什么时候来、以什么形式来、来之前估值能不能扛住”。 4)投资者该兴奋还是害怕? 说到底,这一切最终都要落回到投资者自己身上:如果你持有这些公司的股票,到底该兴奋还是害怕? 我们更倾向于把时间分成两个维度看。 短期,也就是未来12个月,关键词就是波动性。巨额资本支出会压制短期利润率和自由现金流,财报数字变得不好看时,股价很容易下跌。我们已经看到Alphabet和亚马逊在宣布庞大支出后出现显著回调。 但反过来,只要有任何证据证明“钱花得值”,比如AI相关收入超预期、企业客户转化速度加快,市场又会立刻变脸、疯狂追捧,就像Meta那样——开支也在涨,但广告收入因AI改善而反弹,股价照样大涨。 我们必须接受一个现实:短期市场情绪会像钟摆一样,在担心成本和期待回报之间剧烈摇摆。 长期,也就是3到5年,反而应该更乐观一些。今天的投资本质上是在铺设下一个十年的增长底座,未来也许会像之前的移动互联网平台一样能够诞生许多从未出现过的千亿巨头,比如Uber。 真正的关键不再是“谁花得最多”,而是“谁的战略更清晰、执行更强、回报路径更可验证”。 云三巨头的回报路线最直接——AI工厂、算力出租、按需收费;Meta的回报分成当下兑现与远期押注;苹果走端侧与生态黏性的低风险路线;英伟达是周期的受益者但估值要求更苛刻;特斯拉则是押注实体产业的高波动选项。 如果把这张地图看清楚,就不会被“千亿”“万亿”这种数字本身牵着鼻子走,因为数字只是一种表象,真正决定结果的是:钱花在哪里,能不能形成规模优势,能不能变成持续收费的产品与服务,以及最重要的——回报出现之前,市场的耐心还剩多少。 最后给大家留一个更有意思的问题: 历史上修建铁路的公司,很多最终破产或者回报平平,真正赚到大钱的,往往是那些利用铁路网络建立起全新业务的公司;一个更近的例子是Netflix,它利用电信公司铺设的宽带基础设施,最终成了流媒体帝国,而很多电信公司的股票却长期停滞。 那么在AI时代,当Google、微软、亚马逊们把“算力铁路”修好之后,谁会成为那个利用铁路创造出全新服务、全新商业模式、甚至全新生活方式的“AI时代的Netflix”? 也许,这才是这场军备竞赛最值得下注的下一章。
微软财报强劲,股价却暴跌:华尔街到底在怕什么?微软上周发布了最新一季度的财报,成绩十分亮眼:营收 813 亿美元、同比 +17%;净利润更是飙升 +60%。 然而,财报刚落地,股价应声下挫,当天大跌超10%。 这种“好消息=坏反应”的戏码,其实比你想的更残酷:它往往不是公司做错了什么,而是市场发现——它想要的那份“确定性”,并没有到来。 这次微软被市场拎出来“审判”,核心就四个字:高投入,低惊喜。 财报并不差,甚至很好;问题在于,它没能让投资者相信:微软砸下去的天量 AI 投入,正在以同样的速度变成可见、可持续、可复制的利润。 接下来我们把这份财报掰开揉碎,看看那道“业绩火焰”和“股价冰水”之间的鸿沟,究竟藏着什么。 01 市场玩的不是“分数”,而是“差值”:有没有超出期待? 很多人看财报像看考试:及格没、优秀没。但资本市场更像看“差值”:你比别人预期的多多少? 微软最大、最受关注的发动机——Azure 云服务——收入同比增长 39%。你没看错,快 40% 的增速,放在任何巨头身上都属于“很能打”。更何况,这个数字也基本符合公司此前指引,甚至略高于分析师平均预期。 可问题就出在这里:平均预期之上不够,市场需要的是“惊喜”。 而且更关键的是,把时间线拉长,你会发现一个趋势正在形成:Azure 已经连续三个季度增速放缓。市场看到的不是一辆还在疾驰的火车,而是一条“斜率在变小”的曲线。 投资者担心的,从来不是“今天跑多快”,而是——明天还能不能继续加速。 02 “GPU 不够”这句解释,为什么反而让人更慌? 微软当然也知道市场在盯 Azure 的斜率,于是它给出了解释:首席财务官 Amy Hood 提到,增长放缓的一个原因是 AI 芯片(GPU)供应跟不上。她甚至补了一句:如果新买的 GPU 都能及时用在 Azure 上,增速原本可以超过 40%。 听起来很合理,对吧?但它恰恰点燃了另一种更尖锐的担忧—— 你说增长受限于 GPU 供应,可你花钱买设备、建数据中心的速度,却在疯狂加速。 这就是很多投行(例如摩根士丹利一类的“挑刺高手”)抓住的逻辑漏洞:如果 GPU 真是瓶颈,为什么资本开支会像踩了油门一样暴涨? 微软这个季度的资本支出高达 375 亿美元,同比增长 66%。注意,这是“一季”的数字。 如果你对 375 亿没概念:有人打趣说,这笔钱差不多能把一整家传统巨头买下来。更现实一点的表达是:这意味着微软正在以极快速度,把现金转化成机房、电力、服务器、GPU——把未来的产能提前“锁死”。 于是市场看到的画面变成了一个很危险的组合:钱花出去的速度在加快,但是,收入增长的速度却没有同步加快! 这就是那句致命的不匹配:投入加速,回报延迟。 为了让你更直观理解:这就像你开了一家餐厅,先花大价钱把厨房装修得金碧辉煌,买了全世界最顶级的烤箱,甚至把后厨扩建到能同时做一千份套餐——结果你发现,门口排队的人并没有因此变多。 投资者最怕的不是“你花钱”,而是——你花钱以后,需求和利润没有立刻跟上。 这往往就是股价下跌最直接的导火索。 03 传统业务能不能“托住底”? 当 Azure 的故事开始出现斜率焦虑,市场本能会问:那微软能不能靠传统强项稳住局面? 好消息是:Office 365、LinkedIn 这些生产力工具确实稳健。商业版 Office 365 收入增长约 17 亿美元,基本符合预期。这是微软最硬的“压舱石”,说明基本盘依然强大。 但坏消息也很明确:问题出在 Windows 和 Xbox 所在的“个人计算”业务。 这块业务本季表现算是符合 PC 市场整体偏弱的背景,可关键在于——公司给出的下季度指引只有 126 亿美元,而市场原本预期是 137 亿。 差距不只是数字,差距是信号:老业务的造血能力在减弱。 这会让投资者立刻把两条线摆在一起: ·一边是需要疯狂输血的 AI 新业务(云、模型、算力、数据中心); ·另一边是增速疲软、缓冲垫变薄的传统业务。 于是焦虑又加深一层:如果 AI 回报兑现更慢,微软用什么来“扛住利润表”? 04 Copilot 很成功,但救场远远不够 微软当然不是“只花钱不产出”。它最被寄予厚望的 AI 商业化产品之一——Copilot——这次披露的数据非常亮眼:企业版 M365 Copilot,每人每月 30 美元,付费用户已经达到 1500 万。 这是实打实的商业化成绩,说明“把 AI 融入办公生态”的路径确实可行。 但资本市场会立刻做第二步:算账。 1500 万用户 × 30 美元/月 × 12 个月 ≈ 54 亿美元年化收入。 54 亿听起来不少,但把它放在刚才那条“资本开支曲线”旁边——你会立刻理解为什么投行会说“杯水车薪”:微软一个季度 Capex 就 375 亿美元。 更糟糕的是,运行 AI 服务的成本非常高。财报细节里一个信号很刺眼:营收增长 17%,营收成本却增长 19%。 也就是说,微软每赚到 100 块钱,扣掉直接成本后,剩下的钱反而比以前少。结果就是利润率被挤压:整体毛利率降到 68%,创下近三年的低点。 把这些点串起来,市场看到的画面就完整了: ·云业务增速放缓 ·传统业务指引偏弱 ·AI 新收入暂时覆盖不了巨额投入 ·成本爬升导致利润率下滑 于是那句“微软在烧钱赌未来”的叙事就成立了——而短期内,这个未来不仅没带来超额回报,反而在侵蚀当下盈利能力。 股价下跌,情绪恐慌,就不难理解。 05 当Open AI成为票房毒药 财报里还有一个看起来非常漂亮的数字:微软商业未完成订单(RPO)大幅增长,从约 2980 亿增长到 6250 亿,翻了一倍多。 很多人看到这里会松一口气:订单这么多,需求很强啊。 但这份报告(以及一些投行的拆解)往下挖了一层:这 6250 亿里,有高达 45% 来自同一个客户——OpenAI。 接近一半的未来订单来自单一客户,这在任何行业都会触发同一个词:集中风险。 更让人不安的是,OpenAI 本身仍处于需要持续融资的状态——如果未来某一天融资环境变冷,或者商业化不如预期,它是否有能力兑现这类“天文数字”合同?这会直接影响微软对未来收入的确定性。 甚至有人进一步指出:如果把这笔“超级大单”剔除,微软核心订单增长其实更接近一个相对温和的水平,而不是看上去那么惊人。 这一下,“AI 需求爆棚”的叙事就不再牢靠,市场那根敏感的神经再次被拨动。 06 不只是微软:AI 估值逻辑,可能在悄然改变 最值得注意的是:微软这一跌,引发的不是一家公司情绪波动,而是一场软件行业的小型恐慌。财报发布后的第二天,不只是微软,整个科技板块都被带着走。 为什么?因为市场对 AI 支出的态度正在发生一种微妙变化——过去两年,很多科技股享受的是“AI 一价”模式:只要你能讲 AI 故事,只要你敢砸 Capex,只要你在军备竞赛里显得更激进,市场就愿意给你更高估值。 但现在,双重标准开始出现:如果一家公司(比如 Meta 这种)AI 投入能立竿见影地带来广告业务增长,市场愿意买单。可如果你的效果不够快、不够直观,像这次微软,市场就会用更严厉的方式惩罚你。 AI 的光环不再是万能免死金牌。投资者开始要求看到能转化成利润的业绩,开始追问同一个问题: 你们这些巨头动辄千亿的 AI 投资,到底什么时候才能真正变成利润? 这可能是估值逻辑换挡的信号:从“叙事溢价”转向“盈利验证”。 07 该警惕,还是兴奋?关键在时间维度 说到最后,很多人真正想问的是:那微软现在到底是风险,还是机会? 答案不取决于情绪,而取决于你的时间尺度。 如果你看的是未来 3–6 个月,那么就要接受一个现实:市场会非常敏感,拿放大镜盯着两件事—— Azure 是否重回加速、利润率是否继续下滑。 在这些变量没有被证实之前,股价大概率仍会波动。 不过好的一面是,经过下跌,估值已经回落到相对更“讲道理”的区间(例如市场常提的约 26 倍附近)。这意味着继续大幅下跌的空间可能也没那么充裕,但短期波动的噪音会很大。 如果你看的是两年以上,那么主流投行与分析师普遍依然乐观,核心理由也很简单: 微软在云计算和企业办公软件上拥有近乎不可动摇的护城河。AI 的高投入牺牲的是短期利润,换的是未来几年 AI 应用爆发时的统治地位。 短期看是“烧钱的窟窿”,长期看可能是“未来的基石”。一些知名分析师(比如Wedbush的Dan Ives)甚至把这类暴跌视为长期投资者的“上车窗口”,大量买入评级也反映了这种押注逻辑:用今天的阵痛,换明天更高质量的 AI 增长。 结尾:微软提前让市场看见了 AI 时代最残酷的现实 微软这次股价大跌,并不是因为财报有多糟糕。恰恰相反,它是因为财报“太像一个预告片”——提前揭示了所有 AI 玩家都必须面对的现实: AI 的宏大叙事背后,是极其昂贵的投入、短期增长的瓶颈,以及市场随时可能失去耐心的风险。 这不仅是微软一家的故事。也是谷歌、亚马逊,甚至所有投身这场 AI 军备竞赛的巨头,都绕不开的抉择:究竟要不计代价追求长期技术霸权,还是先满足市场对短期盈利的要求?
特斯拉、SpaceX、xAI合并?马斯克的战略野心市场在讨论的不是一次普通并购,而是一种新物种:把航天发射与卫星网络、AI模型与数据、以及车队与机器人平台,合成一个“端到端的物理AI公司”。 本期从底层逻辑出发:AI扩张为什么会撞上能源与土地约束?太空基础设施能否成为新的算力承载方式?三家公司两两组合能形成哪些可验证的协同?又会在资本结构、监管安全与组织文化上遇到哪些致命阻力? 如果合并真的发生,你持有的将不再是一家电动车公司,而是一家跨航天、通信、AI与机器人平台的综合体——估值方法、风险来源与回报想象空间都会被重写。
谷歌Deepmind之父哈萨比斯如何看待 AI 的未来我们每天都被新模型刷屏:GPT-4、Gemini、各类榜单与评测像连续剧一样快速更新。热闹之外,真正值得追问的问题是:推动这一切的“总编剧”到底在想什么?以及,他认为通往下一代智能的路,究竟在哪里? 在近期的一次采访中,DeepMind 早期核心人物德米斯·哈萨比斯(Demis Hassabis)分享了他对人工智能未来的判断。 这次访谈的信息量很大,它不只是对技术路线的解释,更像一份“未来十年 AI 产业的底层逻辑说明书”:哪些方法还会继续奏效,哪些方法注定走不远;真正的瓶颈是什么;以及为什么 AI 既可能成为人类的终极工具,也可能变成必须严肃对待的风险源。 一、DeepMind 为什么重要 要理解哈萨比斯的观点,绕不开 DeepMind 这家公司。 DeepMind 2010 年在伦敦成立,2014 年被谷歌以约 4 亿英镑收购。今天许多面向公众的 AI 产品与能力都可以在不同程度上追溯到它的技术积累。但在“成为手机里各种 AI 功能的幕后英雄”之前,DeepMind 更像一个以科学探索为主轴的研究机构:它用一次次底层突破,把“AI 能做什么”的边界向外推。 访谈里提到的两个里程碑,具有象征意义: ·AlphaGo:在围棋上击败李世石,改变了大众对 AI 能力进展速度的直觉。许多人原本认为这种复杂度的博弈,至少还要十年。 ·AlphaFold:攻克蛋白质折叠预测的关键难题。听起来学术,但直接影响新药研发的效率与路径,意味着 AI 不再只是一种“信息处理工具”,而可能成为“科学发现工具”。 因此,当 ChatGPT 出现、外界认为谷歌“慢了半拍”时,这段访谈强调:谷歌真正的底牌是 DeepMind 的长期积累,而 Gemini 的快速追赶也反映了这种积累的价值。这里的隐含判断是:AI 竞赛并非短期产品发布节奏的胜负,而是长期研究与工程体系的厚度对抗。 二、主线问题:AI 的能力有没有天花板? 访谈把话题切入到大众最关心的点:AI 的能力是否存在上限? 当下主流路径,是哈萨比斯提到的“规模法则”(scaling laws):不断加数据、加算力、堆更大的模型,能力就会提升。它听起来粗暴,但过去几年确实有效,以至于产业形成了一种近乎共识的叙事:大力出奇迹。 哈萨比斯的判断更细: 1.规模法则的边际回报在放缓。不再像早期那样“模型翻倍、能力飞跃”,但回报仍然可观。 2.未来几年内,继续扩规模仍然有效。也就是说,资本开支、算力竞赛还不会突然停下来。 3.但仅靠规模法则,可能永远无法抵达真正的 AGI。这是访谈的关键转折:把整个行业从“扩规模即可通用智能”的乐观叙事,拉回到“缺失关键能力”的现实问题。 一句话概括就是:规模法则是必要条件,但不是充分条件。 三、为什么扩规模不够? 为了说明“为什么不够”,哈萨比斯提出了一个形象的概念:锯齿状智能(Jagged Intelligence)。 “锯齿状”的意思是能力分布高度不均匀: AI 在某些任务上锋利到可怕——写诗、写代码、总结知识、对话表达,甚至达到顶尖专家水平;但在另一些任务上又笨得出奇——缺乏常识性的物理理解、长程规划、持续学习与自我校正能力,做稍复杂的计划就可能漏洞百出。 这种不均衡意味着:你看到的“聪明”,往往是局部能力的极致;而一旦需要跨场景、跨时间、跨因果链条的推理,系统就会暴露结构性短板。 访谈给出的结论是:AI 目前缺的不是“知识量”,而是更接近人类认知结构的三类能力: ·持续学习:不是一次训练定型,而是能在运行中更新与修正。 ·原创性思考:不是拼接文本模式,而是形成新解释、新假设。 ·长期规划:能跨多步目标做策略性推演并保持一致性。 这为下一段的“新方向”埋下伏笔。 四、通往下一代智能:世界模型(World Models) 哈萨比斯认为,补上上述短板的关键路径之一,是发展世界模型。 访谈用一个非常好懂的类比来解释它与 LLM 的区别: ·LLM 像“博学的文科生”:通过海量文本/图像学习语言规律与模式,擅长表达与归纳;它知道“太阳东升西落”这句话常出现,因此会这么说。 ·世界模型像“理科生/物理学家”:不仅知道现象,还要理解背后的机制;它在内部建立一个“真实世界的模拟器”,能够推演因果关系——比如“杯子从桌上被推下去,会因重力下落并摔碎”。 这句话非常关键:世界模型强调因果与可推演性,而不仅是相关性与模式匹配。 在此基础上,哈萨比斯提出一个判断:未来的 AGI 很可能不是单一巨大 LLM,而是: ·LLM 负责沟通与知识(语言接口、工具调用、信息组织) ·世界模型负责理解与推理(因果推演、规划、模拟与决策) 换句话说,AGI 更可能是“多模块系统的协同”,而不是“一个更大的聊天模型”。 五、时间表与瓶颈:5–10 年,以及两大物理约束 访谈里最抓人的信息之一,是哈萨比斯对 AGI 时间窗口的判断:大约 5 到 10 年。这在行业内部并非共识,因为也有顶尖学者认为缺少根本性理论突破,距离仍非常遥远。 但无论时间表如何,他强调实现路径会被现实约束牵引,其中最核心的是两大“物理瓶颈”: 1.芯片(算力供给) 高端计算芯片成为全球硬通货,供不应求,决定了训练与推理的上限。 2.能源(电力与基础设施) 巨型数据中心耗电惊人。在他的表述里,能源将等同于智能:谁掌握能源,谁就掌握智能上限。 这带来一个看似悖论的循环:想要更强 AI,需要更多算力与数据中心;更多数据中心意味着更高能耗;而现实世界正面临能源与气候约束。 六、AI 的“自我解瓶颈”:蒸馏与科学加速 面对上述悖论,哈萨比斯提出一个更具“螺旋上升”意味的观点:AI 本身可能就是解决瓶颈的钥匙。 访谈给出两条路径: 1)效率路径:用 AI 优化 AI(蒸馏) 蒸馏(distillation)的直观理解是: 先训练一个成本极高、能力极强的“宗师模型”,再让它“手把手教”更小的“学徒模型”。最终学徒模型体量更小、能耗更低,但能力能接近宗师的大部分水平。 它的意义在于:把昂贵能力“压缩”到更便宜的运行形态,从而缓解算力与能耗的压力。 2)价值路径:用 AI 加速科学突破 更长远、也更宏大的方向,是把 AI 用作“科学发现引擎”: ·新材料筛选与设计(提升太阳能电池效率等) ·核聚变装置优化(触及“终极能源”的工程瓶颈) ·药物研发提速(与 AlphaFold 路线一脉相承) 这一段的核心不是“AI 会不会替代人”,而是:AI 能否成为人类解决重大问题的通用加速器。这也解释了他为何对 AI 同时持乐观与谨慎态度。 七、风险视角:极度乐观下的“极限运动员式谨慎” 访谈并没有停留在技术浪漫主义,而是把风险明确拆成两类: 1.恶意使用风险 工具越强,落入恶意使用者手中,破坏力越可能指数级上升。 2.失控风险(对齐问题) 随着系统更自主、更像“智能体”(Agent),能够自设目标、执行计划,如何保证其目标与人类根本利益一致,成为结构性难题。访谈提到经典的“回形针思想实验”,用以说明“看似无害目标”也可能导向灾难性后果。 哈萨比斯的回应是:DeepMind 从成立之初就把安全与伦理放在核心位置,采用科学方法研究约束与控制,而不是等到系统强大到不可控时再补救。他承认不存在万无一失的保证,但强调行业不能“蒙眼狂奔”。 这一段实际上构成了他整体态度的定义:技术乐观,但不浪漫;追求突破,但不放弃治理。 八、现实世界的三重竞争:公司、资本与地缘政治 访谈最后把 AI 从技术问题拉回到现实世界的“竞争结构”,并拆成三层: 1)公司层面:巨头之间的贴身肉搏 一年前舆论说谷歌被 OpenAI 打了个措手不及,但 Gemini 的进展说明:对巨头而言,只要战略上足够重视,研发深度与工程能力依然恐怖。竞争不是一次发布会,而是体系能力的对抗。 2)资本层面:泡沫与“家底优势”并存 他承认私募市场存在“几乎没有产品却估值离谱”的泡沫。但与此同时,谷歌的现金流与资产负债表带来“超级大国优势”——可以承受几十亿乃至上百亿美元的长期投入;而 OpenAI、Anthropic 等明星创业公司更依赖持续融资,一旦市场遇冷,资金链弹性较弱。 这里的核心判断是:在算力密集型赛道,资本结构本身就是竞争力。 3)地缘政治层面:中美竞赛与创新文化 他提出一个可能让人意外的观察:中国顶尖模型与西方前沿的差距可能已缩小到“几个月”。但他紧接着强调更深的分野: 中国公司已经证明“快速追赶与复制优化”的能力,但尚未充分证明“定义下一代架构、做根本性原创创新”的能力。这更多是科研文化与创新环境的问题——容忍失败、鼓励冒险式探索,比砸钱与堆人更难。 结语:当 AI 既是能源消耗者,也是解决方案 访谈收束在一个值得反复咀嚼的悖论上: AI 一方面可能成为这个时代最大的能源消耗者与风险来源之一;另一方面,它又可能是解决能源危机、气候变化、疾病等重大挑战的“终极工具”。 因此,问题不再只是“AI 能不能更聪明”,而是: ·我们能否从单一的“堆规模”叙事,走向更深层的“理解与推理”路径? ·我们能否在芯片与能源的物理约束下,重塑 AI 的效率与价值创造方式? ·我们又能否在加速冲刺时,建立足够稳健的安全与治理框架? 当探索的脚步越快,风险的缰绳就越需要被认真握紧。AI 的未来,既取决于模型,也取决于我们选择怎样的制度、资本结构与创新文化来承载它。
A16z安德里森:AI不是“下一个互联网”,而是一场80年革命的兑现这两年,AI几乎成了所有科技讨论的“背景音乐”。但真正值得警惕的,是我们很容易把它当成一次短期风口:模型更聪明了、算力更贵了、资本更疯狂了——于是话题就停留在“热不热”“泡不泡”。 a16z最近的一场分享里,马克·安德里森(Marc Andreessen)给了一个完全不同的切入点。 马克·安德里森是硅谷最具影响力的互联网创业者与风险投资人之一,曾共同开发早期广泛普及的图形化浏览器 Mosaic,并联合创办 Netscape,推动互联网走向大众化。此后他与 Ben Horowitz 共同创立风险投资机构 Andreessen Horowitz(a16z),长期投资并塑造了多代关键科技公司与产业趋势。 在这次分享中,他不是在讨论“这波AI会不会退潮”,而是在画一张更长周期的未来地图:AI会把钱从哪里吸来?权力会落到谁手里?产业结构会变成什么样? 如果只用一句话概括他的核心判断,那就是: 这不是互联网的下一波浪潮,而是一场酝酿了近80年的技术革命,正在进入兑现承诺的阶段。 听上去夸张,但恰恰是理解当下争论的钥匙。 一、别把AI当“新科技”:它是一场80年长跑的最后冲刺 很多人会下意识觉得:AI是这两年突然火起来的,真正的起点是ChatGPT。 安德里森的说法更“拉长镜头”。他把时间线往回推到计算机科学的源头,并指出在 1930年代,计算机其实站在一个岔路口上: ·一条路:把机器做成“超级高效的加法器”,也就是更快、更强、更稳定的计算设备。这条路线成为主流,塑造了IBM等公司,也塑造了我们过去几十年对“电脑”的典型印象——数学能力极强,但你跟它说话,它听不懂。 ·另一条路:不让机器做数学题,而是尝试模仿人类大脑的结构。这条路线当时更像“科幻”,后来长期被搁置,但它对应的概念我们今天很熟悉:神经网络。 他还提到一个很有画面感的细节:关于神经网络的关键论文,在 1943年就出现了;而论文作者之一甚至在 1946年的电视采访里预言“未来计算机一定会基于人脑模型构建”。 这条路线后来经历了多次沉浮、几次“AI冬天”,在某些阶段甚至被视为死胡同。但就是有一批人没有放弃。直到ChatGPT这样的里程碑出现,世界才集体意识到:那条被长期搁置的路线不仅走得通,而且潜力巨大。 所以,今天的“爆发”并不是凭空发生。它更像是——一场长周期科研与工程积累终于跨过临界点,进入兑现阶段。 二、AI到底烧不烧得起?多数人把账算错了 AI最常见的质疑只有一句话:太烧钱了,这商业模式怎么可能成立? 安德里森的回应很直接:很多人只盯着成本,却严重低估了需求与收入潜力。他把“经济账”拆成两端:消费端与企业端。 1)消费端:AI有一个前所未有的“分发优势” 电力、电视这些通用技术的普及,往往需要几十年。AI不一样,它直接站在互联网之上,可以在极短时间触达全球用户。 这意味着:AI的扩散速度,本身就会重写商业化路径。 他还观察到一个看似离谱但很现实的趋势:一些AI公司正在尝试极高价订阅——比如每月200甚至300美元。 听起来贵,但它的逻辑是:用更高客单价换取更强现金流,持续投入研发,做出真正“顶尖”的产品,然后服务那批愿意为高质量付费的专业用户。 2)企业端:商业模式更干脆——按 token 付费 在企业端,他认为商业模式反而更清晰:按token计费。 你可以把token理解成“智能的计量单位”。企业调用模型处理文本、生成图片、改写邮件、辅助客服,本质上是在按消耗的智能单位付费。 这不是玄学,也不是“概念”,而是一种非常可结算的交易结构: ·你想把客服满意度提高5%; ·你想让营销邮件点击率翻倍; ·你想把销售话术、投放素材、产品文档变得更高效…… 只要这些提升带来的收益大于token成本,这笔账就成立。 企业真正关心的不是“AI酷不酷”,而是ROI:智能到底值多少钱。 三、最关键的变量:智能单位成本正在“超级通缩” 整场分享里,安德里森最核心、也最具争议的一点,是他对成本曲线的判断: AI的单位成本下降速度,可能比摩尔定律还快。 他把这个过程叫做“超级通货紧缩”。意思是:同样的智能能力,会在更短时间内变得更便宜。便宜到超出我们对硬件时代的直觉。 这会引发一个经典反驳:可我们每天都在听新闻——GPU很贵、很缺、甚至被少数公司垄断,成本怎么可能降得下来? 安德里森的回答是:这种担心更多是短期视角。长期看,几个变量会同时推动成本下行: 1.资本正在以极大规模涌入芯片制造、数据中心等基础设施领域,供给会被快速拉升; 2.在传统产业里常见的规律是:短缺会引发扩产,扩产会带来成本下行; 3.很多人忽视了硬件的“寿命”:GPU并不是一年就报废的设备。若硬件可用多年,那么今天投入的基建成本,会在更长周期里持续摊薄,提供越来越便宜的算力。 换句话说:争论的关键不在“今天贵不贵”,而在于“成本曲线是否会持续陡峭下行”。安德里森押注的是后者。 四、产业格局不是“赢家通吃”:少数巨型模型 + 海量小模型共存 当成本下降、能力扩散,产业结构会变成什么样? 安德里森的图景是一个“金字塔”: ·顶端是少数超级强大的巨型模型,像“上帝模型”一样不断冲击智能上限; ·底部和中部则是海量更小、更便宜、更易部署的专用模型,被嵌入到手机、汽车、家电、门锁等各种实体产品里。 支撑这种结构的机制,是他提出的“追赶函数”:大模型开疆拓土,小模型快速复制普及。 他的观察是:一个顶尖大模型费尽心力实现的新能力(比如更强推理),往往在 6到12个月后,就会被更小、更便宜的模型复制出来。 原因有两类: ·知识传播速度极快(论文、工程经验、开源生态); ·训练技巧与算法持续优化,让小模型用更少资源达到过去大模型才能达到的效果。 这也解释了为什么“模型能力”不像传统硬件那样形成长期垄断:领先者确实领先,但领先成果会快速扩散。 最终结果不是单一路线,而更可能是:顶端不断突破,底部迅速普及。 五、开源 vs 闭源:不是商业选择,而是“人才供给”的结构性问题 谈到开源和闭源,很多人习惯把它当作“商业模式之争”:OpenAI更闭源,Meta更开源,谁能赚更多钱? 安德里森的落点更深:开源的最大价值,是解决AI发展里最根本的瓶颈之一——人才短缺。 为什么? 因为最好的AI学习材料,往往不是教材,而是最先进的模型本身。当开源模型被公开,全世界任何有天赋的年轻人都可以下载、研究、修改,相当于把“最顶尖的武功秘籍”免费公开。 这会以远超传统教育体系的速度,培养下一代AI工程师与研究者。于是,开源不仅是技术路线,它会变成生态结构的一部分。 六、中美竞赛:外部竞争正在重塑政策与创新环境 当讨论走到全球层面,安德里森提到中美竞赛。 他认为这和过去美苏冷战不同:中美在经济上深度捆绑,但地缘竞争又极其现实,因此这更像一场“双马竞赛”。 他还提到一个值得玩味的政策推论:当华盛顿的决策者意识到这不再是“美国公司自己玩的单马竞赛”,而是“真正的双马竞赛”时,美国国内那些可能扼杀创新的极端立法风险,反而可能下降。 原因很简单:当竞争压力足够大,首要任务会变成“不能落后”。从这个角度看,竞争客观上可能加速全球AI技术发展,并改变监管议程的排序。 七、最后的关键问题:别听人们怎么说,要看他们在做什么 在结尾,安德里森借用了社会科学里的经典观察: 如果你想了解人们的真实想法,是去问他们,还是去观察他们的行为? 在AI问题上,两者的差异巨大。 如果你做民意调查,你会听到大量恐慌:担心失业、担心失控、担心反乌托邦。但如果你观察现实行为(显示性偏好),你会看到几乎相反的景象: 人们在用AI写工作报告、做方案、改邮件、处理情绪问题、甚至做健康建议——它已经在以各种方式渗透到日常生活里。 于是,一个更尖锐的问题被抛给所有人: 当你判断AI的真正走向时,你更相信媒体上那些充满焦虑的标题,还是更相信你身边不断发生的真实使用行为? 结语:判断AI,不要只盯“情绪”,要盯“结构变量” 安德里森的蓝图未必每个细节都正确,但它提供了一种更高维的观察框架:把AI从短期热点拉回到长周期技术与产业演化,并把注意力从“今天的情绪与价格”转向几个更硬的变量: ·成本曲线是不是会持续快速下行; ·能力扩散是不是会越来越快; ·产业结构会不会走向“少数巨型 + 海量小型”的共存; ·人才供给与开源生态会怎样影响竞争格局; ·真实使用行为是否持续增长。 也许,理解AI时代最稳妥的方法不是预测结局,而是持续观察:钱正在流向哪里,能力在以什么速度普及,普通人和企业又在如何把它嵌入真实流程。 当这些变量一起指向同一个方向时,所谓“风口”就不再是风口,而更像一场结构性迁移。
霍华德·马克思投资框架:观察、审慎、第二层次思维“他人的事务处理得越不审慎,我们自己的事务就必须处理得越审慎。” 这句话常被归于沃伦·巴菲特。无论它最初出自哪里,它都精准地点出了当下投资者面临的处境:当市场整体越来越“大胆”、越来越“乐观”,个人的投资纪律反而更需要收紧。越是在一夜暴富叙事盛行、风险偏好被不断奖励的阶段,越需要一套能让你不被情绪带走的框架。 这正是我们今天要解码的人物——霍华德·马克斯(Howard Marks),橡树资本(Oaktree Capital)的联合创始人。他的价值不在于给出“买什么”的答案,而在于提供一套思考工具:当市场躁动、估值抬升、故事满天飞时,你如何判断自己身处何处,如何在不确定中保持审慎。 一、从互联网泡沫说起:他不是“预测”,而是“识别” 理解马克斯框架的最佳入口,是他职业生涯中最著名的一次判断:2000年前后的互联网泡沫。 2000年1月,他写下那份著名的备忘录《bubble.com》,精准捕捉了当时市场的疯狂。很多人因此误解:他是不是有内幕消息?是不是有“水晶球”可以预测未来? 马克斯后来反复澄清:那不是预测,而是观察。 当时他正好在读一部关于金融投机史的书,书中详细描述了18世纪英国的南海泡沫:人们辞掉工作、押上全部身家、相信某家公司将“永远改变世界”。他在阅读时突然意识到:这与1999年身边人们对科技股的狂热几乎一模一样。 历史不会简单重演,但常常惊人相似。马克斯并不是预言“哪天崩盘”,而是识别“剧本又来了”。 二、泡沫是怎么形成的:两条最常见的“致命跳跃” 从南海泡沫到互联网泡沫,马克斯总结出泡沫反复出现的共同特征。其中最关键的两条,几乎每次都会出现。 1)泡沫总围绕“激动人心的新事物” 泡沫往往起源于一个真正的新东西:一次“范式转移”。当年的互联网如此,今天的人工智能亦如此。 新事物的可怕之处不在于它“是假的”,而在于它“很难被证伪”。因为缺乏长期历史数据,人们很难用过去的经验来证明它的边界,于是想象空间会被迅速放大。 2)从“改变世界”跳到“所有相关公司都能赚大钱” 第二个特征更致命:逻辑跳跃。 人们会把“技术将改变世界”直接等同于“所有沾边的公司都会成功”。就像淘金热里,大家默认“随便在哪挖都能挖到金子”,从而忽视了商业竞争的残酷:行业效率提升,不等于行业内企业利润同步提升;当所有公司都拥抱同一技术时,竞争只会更激烈,价格战甚至可能吞噬效率提升带来的大部分收益。 这也是为什么巴菲特反复强调:投资的关键不是判断一个行业能增长多快、对社会影响多大,而是判断一家公司的竞争优势,以及这种优势的持久性。技术趋势再强,也不会自动把每一家“概念公司”变成好生意。 三、“无法预测,但可以准备”:马克斯到底在做什么? 如果他能识别危险的假设,为什么又坚持说自己不是在预测?两者差别在哪里? 马克斯的答案可以浓缩为一句话:你无法预测,但可以准备。 他还有一句经典表达:我们永远不知道要去哪里,但我们应当知道自己身在何处。 他的工作不是画一张“未来地图”,告诉你市场下周涨还是跌;而更像是在给市场“量体温”: ·参与者的行为在变得更乐观还是更谨慎? ·资产价格整体是偏贵还是偏便宜? ·市场情绪处在兴奋、亢奋,还是恐慌、绝望? 在2000年初,他看到市场行为极度狂热、资产价格极度昂贵,于是判断环境充满风险。即便不知道泡沫具体哪一天破裂,他也足以做出决策:在高风险区域,应该更防御、更谨慎。 这里有一个必须牢记的陷阱:“价格过高”与“明天就会下跌”,远非同一回事。 市场可能在非理性状态下维持很长时间,甚至长到足以让逆势者先被淘汰。看对方向不等于能熬过时间。 因此,马克斯所谓的“准备”并不是鼓励你押上身家去做空市场,而是当市场温度过高时,在组合中增加防御、降低风险敞口:不是清仓离场,而是调整杠杆、仓位与承受波动的能力。 四、当下市场的“体温”:高耸,但还没到疯狂 如果把马克斯的方法用到当下,他怎么看今天? 他认为市场正处在“不审慎”的区域:在经历了很长的牛市之后,冒险行为持续得到丰厚回报;谨慎行为反而被惩罚,显得“很愚蠢”。久而久之,投资者心态扭曲:害怕错过(FOMO)压倒了害怕亏损。当大家更怕踏空而不是亏钱,市场就变得危险。 他引用了一句银行家的老话来描述这种机制:最坏的贷款,总是在最好的时候放出去。 经济繁荣时人人乐观,放贷机构为了争业务放松信贷标准;投资者为了追高收益去买更高风险资产;风险就在歌舞升平中悄悄累积。决定市场风险水平的,不是经济数据本身,而是参与者的行为。 但这并不意味着你就该“逢涨必空”、做一个永远与大众反着来的逆向投资者。马克斯明确反对这种姿态:绝大多数时间里,市场共识大体是正确的,趋势客观存在。无脑唱反调,往往更快破产。 他的原则是:只在市场的极端时刻,采取坚定的逆向立场。 在超过50年的职业生涯里,他大约只做出过5次重大逆转共识的判断——平均10年一次。这意味着真正需要“逆向”的机会极其罕见,且要求你具备“第二层次思维”。 五、第二层次思维:不是想得不同,而是想得更深 马克斯用一个非常清晰的对比解释第二层次思维: ·第一层次思维:这是一家好公司,我们买它的股票。 ·第二层次思维:这是一家好公司,但所有人都这么认为,所以它的优点已经被充分反映在股价里,甚至被高估了,因此我们应该不买,或卖出。 关键不在于“和别人不一样”,而在于“比别人想得更深入”。你必须有充分理由相信市场的普遍共识是错的,而这种情况通常只在情绪达到贪婪或恐惧的极点时发生。 这听起来很稳、也很无聊,甚至有些“不求有功但求无过”。但马克斯认为,长期卓越回报的核心,往往来自对下行风险的克制,而不是对上行机会的豪赌。 六、一个反直觉的故事:连续14年平平无奇,最后却进入顶尖4% 在访谈中,马克斯讲了一个真实的养老金基金故事: 有一只养老金基金连续14年,每年的业绩都只是“中等偏上”,大致在行业同类基金的27到47分位之间,从来不是年度冠军。 但当你把14年的总回报拉出来一看,它的总排名进入了所有竞争对手中最顶尖的4%。 原因并不神秘:它没有惊艳的年份,但几乎没有糟糕的年份;而很多竞争对手为了追求某一年成为冠军,会承担过高风险,牛市里耀眼,最终在某次大回撤中把多年收益抹掉。 马克斯用一个比喻总结这种目标:像他最喜欢的一家意大利餐厅——永远不错,偶尔很棒,但从不糟糕。 这背后是最朴素的数学:亏损50%需要上涨100%才能回本。收益与损失的巨大不对称性,使“避免灾难性亏损”在长期里极其重要。 七、《巨变》:40年利率下行的顺风结束了 把所有关于审慎、防御与周期的线索汇集到当下,马克斯在《See Change(巨变)》中提出了一个根本性判断: 从1980年到2020年,长达40年的利率持续下降周期结束了。 这40年几乎覆盖了多数人的职业生涯,也给投资者带来了巨大的顺风:资金成本越来越便宜、利率不断下行,不仅推高了股票、债券、房地产等几乎所有资产的价格,也让使用杠杆的策略异常有效。 马克斯的重点并不是断言利率会一路飙升,而是指出:过去那种“资金成本确定性下降”的舒适环境已经一去不复返。我们进入了一个利率更高、也更不确定的新环境。那些在过去几十年被证明有效的策略,未来可能不再适用——这是一种范式转变。 八、他对“七巨头”不那么悲观,但更担心“剩下的493家” 谈到当前估值,他对科技七巨头(Magnificent Seven)的态度出人意料地没那么悲观。 他承认它们30多倍的估值大约是历史平均的两倍,确实贵;但它们是极为出色的公司:盈利能力强、资产负债表强、护城河宽。贵有贵的道理,高估值在一定程度上有合理性。 他真正担心的,反而是标普500里另外的493家公司:这些公司的平均估值也达到19到21倍,显著高于过去约80年16倍的历史平均。他反问:为什么这些相对平庸的公司也应当享有如此高的估值溢价?它们的基本面真的能支撑当下的股价吗? 因此他给出的总体体感是:“高耸,但还没到疯狂”(lofty but not nutty)。 用“量体温”的比喻来说:市场有点低烧,还没到需要进急诊的高烧程度,但毫无疑问,风险水平高于平均值——现在应当比平时更审慎一些。 九、如果把他的智慧压缩成一条建议 如果要把马克斯的智慧浓缩成一条最重要、压倒一切的投资建议,会是什么? 他的答案非常简单,却极其有力:大量投资、尽早投资,并坚持下去。 他强调不要试图择时进出市场,因为几乎没有人能稳定地做到。普通投资者最大的错误往往是:市场下跌时恐慌卖出;随后因为害怕错过反弹而不敢再进场,最终错过整个复苏。 目标不是成为预测市场的神,而是避免犯下那些无可挽回的重大错误,然后留在场内,让时间与复利为你工作。 十、用一个工具结束:称重机与投票机 最后,马克斯提出一个非常重要的区分,值得反复使用。 他把资产分为两类: 1.能产生现金流的资产:股票、债券、房产等。 这类资产可以通过估算未来现金流来推算内在价值。格雷厄姆把它称为“称重机”:长期来看,价格会向价值靠拢。 2.不产生现金流的资产:黄金、艺术品,也包括加密货币等。 这类资产的价值更多取决于下一个人愿意出多少钱,基于信念、情绪与流行度。格雷厄姆把它称为“投票机”:短期里,人气与情绪主导价格。 因此,我想留给你一个问题:当你审视自己的投资组合,或面对下一个让你兴奋的新资产时,你可以反复问自己—— 我的决策,是基于对内在价值的可计算分析,还是我只是在参与一场由人气决定的投票游戏? 这或许就是“泡沫体温计”真正要测量的东西:不是市场明天涨跌,而是你自己的判断是否仍然审慎。 本文源自马克斯近期采访观点,采访视频链接:youtu.be