

深度拆解CrowdStrike:AI时代网络安全“五层架构”与Agentic SOC当AI开始自动执行任务、企业内部跑起大量AI代理/智能体,一个更棘手的问题出现了:谁来保护AI本身? 本期我们基于 CrowdStrike 最新财报电话会,抛开股价噪音,只看管理层如何定义 AI时代网络安全战局:为什么AI会把软件公司“劈成两派”?为什么88%的攻击不是恶意软件,而是身份/凭证?为什么安全行业进入0容错?以及CrowdStrike提出的五层防御蓝图(GPU→硬件OEM→云→Token Factory→AI应用与智能体),以及“Agentic SOC”与旗舰助手 Charlotte 如何把响应速度提升到新的量级。 如果你是企业管理者、IT/安全负责人,或关注AI落地的长期趋势,这期会帮你看清:AI浪潮中安全不再是补丁,而是刹车系统。
Costco最新财报深度拆解:AI时代,传统零售为什么反而越来越强?很多人以为,互联网会干掉传统零售,AI会进一步颠覆一切。 但现实是,像沃尔玛、Costco 这样的老牌巨头,不但没有被淘汰,反而越来越强。 这期我们不只是拆一份财报,而是借 Costco 最新财报电话会,去看懂一个更重要的问题: 为什么真正优秀的公司,既能适应变化,又能守住不变。 这期你会看到: Costco 如何通过数字化吸引年轻用户, 如何把仓储超市开进城市核心区, 如何用 AI 做推荐、做零售媒体, 又如何把广告利润、效率红利,重新变成价格优势。 甚至连高油价这种别人头疼的事,它都能变成门店引流工具。 表面上这是一份财报,实际上,这几乎是一堂现实世界里的商业案例课。 如果你关心 AI、零售、商业模式、管理战略,这期会很值得。
【硬核拆解】博通AVGO财报:定制XPU如何重塑AI基础设施?这期我们用 博通 Broadcom(AVGO)最新财报/电话会 做一次“从数字到产业”的深挖:为什么在英伟达GPU主宰的时代,定制XPU/ASIC 反而成为 Google、Meta、OpenAI、Anthropic 等巨头绕不开的底层选项? 你会看到AI基础设施的竞争正在从“软件叙事”转向“物理现实”:良率、先进封装、SerDes高速互联、交换芯片、HBM与基板产能锁定,每一项都决定能否把算力做成吉瓦(GW)级超级工厂。 如果你想看懂:GPU vs XPU 的分工、为什么巨头不自己造芯片、以及博通的护城河到底在哪里,这期给你一张清晰的全景图。 版本B(偏转化,强调收益) 看完你会得到3个确定性认知: 1)AI算力竞争已经进入“GW尺度”,电力与供应链成为新约束; 2)定制XPU不是“更便宜的GPU”,而是为架构成熟后的推理/路由优化; 3)真正的护城河,可能不是代码,而是对关键组件与产能的锁定。
AI 时代软件怎么活?Snowflake 给了答案企业软件行业正被两种情绪撕扯:一边担心 AI 是泡沫,一边担心 AI 会颠覆一切。真正的问题是——谁能把 AI 写进财报,写进现金流? 这期视频用 Snowflake 最新财报与电话会做硬核拆解: · Snowflake 到底做什么?为什么它不是“云”,而是企业数据底座与治理体系 · 商业模式:用量计费如何在 AI 时代放大收入(存储/计算/查询/AI 工作负载) · 关键指标:为什么看懂 SaaS 必须盯 NRR 与 RPO,而不是只看营收 · AI 采用率是否真实?从 430+ 功能到客户采用数据,拆掉“堆功能”的争议 · “账单刺客”Sticker Shock:AI 普及的最大瓶颈,以及 Snowflake 的成本可预测性解法 看完你会得到一套可迁移的判断框架,用来评估其它 SaaS 或数据平台:谁在受益于 AI,谁可能被 AI 颠覆。
Palantir 发明的“前线部署工程师 FDE”:为什么它正在重塑 AI 时代的企业软件?你可能听过 Palantir,但很少有人真正理解它的“组织核心”:Forward Deployed Engineer(前线部署工程师,FDE)。 这是一个把工程师直接扔进客户现场的岗位——国防、航空航天、能源网络、制造系统……越混乱、越关键、越难标准化的场景,越是他们的主战场。 本期我们拆解 A16Z 合伙人(前 Palantir)与 Palantir 首席架构师的罕见对谈,讲清三件事: 1. 什么是“反向构建”:不是先设计完美架构,而是先在泥潭里把问题“止血”,再倒逼平台抽象。 2. 为什么 FDE 能避免沦为外包:用“不可能目标 + 人手约束”逼出软件杠杆,让 1 个工程师干 100 个人的活。 3. AI 时代的终极命题:当算法能完美执行,人类的不可替代价值,可能正在回到“定义问题、吸收痛苦、把混乱变成清晰目标”。 如果你做企业软件、ToB销售/交付、数据平台、AI落地,或者你正在带团队做复杂项目——这套机制会直接改变你对“价值创造”的理解。
一秒一万次交易?AI代理经济的底层货币为什么是USDC这期我们用 Circle 最新财报电话会材料,拆解一个正在发生的现实:AI代理不只会写代码,它们开始互相协作、雇佣、结算,甚至给人类发工资。 关键问题是:当未来出现数十亿甚至百亿级AI代理,为什么它们需要自己的钱包?为什么“机器世界的支付”更可能选择 USDC 而不是比特币或某种AI原生代币? 我们会讲清楚三条主线: 1. 资金流转速度:当交易从“年/天”变成“秒级高频微交易”,经济结构会发生什么变化; 2. 可预测性:为什么稳定性对AI代理的成本收益计算是刚需; 3. 基础设施:Circle 的 ARC 网络、Circle Gateway、CTTP 跨链如何把成本压到接近零,并连接现实世界(CPN、跨境B2B、预测市场等)。最后留一个终极问题:如果最富有的实体不再是人类公司,而是持有大量USDC的AI代理,我们的经济学还能成立吗?
一家“老工业”公司,GEV凭什么在新能源时代跑赢硅谷?如果在2024年GE Vernova拆分上市时就持有它,那么到今天回报竟然能做到接近 6 倍(发行价约 115 美元)。这是一段相当“反直觉”的行情:一家做燃气轮机、变压器、电网设备的工业公司居然跑赢了众多硅谷科技公司。这不是典型的“新能源叙事”,更非硅谷那套“软件改变世界”的剧本,但它确实在发生。 更有意思的是,它不仅跑赢了很多科技股,还在某种意义上“卡住了 AI 的脖子”。因为当你把 AI、数据中心、云计算这些词拆开来看,最后会落到一个极其朴素的问题:电从哪里来,又怎么送过去? 今天我们就借 GE Vernova 最新一次财报电话会,把这家公司背后的逻辑捋清楚。 GE Vernova展现了一个非常鲜明的“冰与火”结构:一边是 AI 点燃的电力与电网需求,订单热到发烫;另一边是被政策寒流突然冻住的海上风电,风险冷到刺骨。 GE Vernova 的难点与看点,恰恰在于它如何在这两种世界之间,为自己,也为整个能源系统寻找一条更稳的路径。 1500亿美元的积压订单 先看一个足够震撼的数字:1500 亿美元。 这不是市值,也不是收入,而是 GE Vernova 手里积压的订单总额。更夸张的是,这个数字在短短四年里增加了大约 50%。 这就像一家生意火爆的顶级餐馆:未来三年的桌子几乎都被订满了,客户不仅排队,还提前付了高价订金。 餐馆接下来要做的事情看似简单——把菜按时、稳定、高质量地端上桌——但真正的压力也在这里:订单越多,越说明你被市场“需要”;同时也越要求你把产能、供应链、交付和质量做到极致。 财报电话会上,管理层也强调了这个变化:公司刚宣布分拆时积压订单大约在 1000 亿美元附近,而如今到了 1500 亿美元,体量更大,确定性也更强。 但这还不是最关键的部分。真正让这份财报“有味道”的地方在于:这家餐馆不只是桌子订出去了,它的菜价也在涨——也就是它的盈利质量正在发生变化。 不止“多卖”,还要“多赚” 过去几年,很多重资产行业拼的是规模、产能、份额,大家看上去都在增长,但很容易陷入“干得越多越累、赚得不够体面”的尴尬(我们称之为“内卷”)。 GE Vernova 这次给市场的信号更像是:它正在从“多卖”走向“多赚”。 我们可以从订单结构看出这件事的分量。管理层披露,1500 亿美元积压订单里,大致可以拆成两类:约 640 亿美元来自设备,约 860 亿美元来自服务。 设备决定了未来几年交付的基本盘,服务则意味着更长周期、更稳定、更高质量的利润来源。 仅在 2025 年这一年,公司就在设备积压订单里新增锁定了约 80 亿美元的未来利润,这个数字甚至超过过去两年合计的水平。 同样做生意,它不再只是“卖得出去”,而是在议价、组合、合同条款、服务绑定等层面,拿回了更强的主动权。 当一家重工业公司开始谈“定价权”,并且用合同与利润锁定来证明它,这往往意味着行业供需已经进入了另一种状态:不是你求客户下单,而是客户为了保证拿到产能,愿意付出溢价。 AI 点燃了电力与电网 如果说这份财报里最“火热”的部分是什么,那答案几乎写在每一段业务讨论里:电力,尤其是燃气发电,以及电气化(电网设备)。 先看燃气发电。电话会披露,光是第四季度,公司就签下了约 24 吉瓦的新合同;燃气轮机设备的积压订单与产能预留,从约 62 吉瓦飙升到约 83 吉瓦,管理层目标是到 2026 年底做到约 100 吉瓦。 更重要的是,这不是某一个地区的短期脉冲,而是一种全球性的拉动:美国、中东、越南、台湾地区等需求都非常旺盛。 一个看似反直觉的问题:我们不是在谈新能源、谈绿色转型吗?为什么作为传统化石能源的燃气发电,会迎来这种爆发式增长? 答案其实很现实:电力需求增长比过去的规划假设更猛,尤其是数据中心和 AI 带来的新增负荷,是许多旧模型里没有充分预料的变量。 与此同时,风能、太阳能增长很快,但它们的间歇性与不稳定性,使得电网系统必须要有一个“随时顶得上”的稳定电源来做支撑。 于是燃气发电在当下成了更现实的选择——它像一个过渡者,也像一个稳定器:平时可以让位给新能源,一旦负荷波动或供应不足,必须能立即顶上。 新能源像一艘正在加速的大船,而燃气发电更像护航舰队,风平浪静时不显眼,一旦出现风浪,它必须冲到最前面把船稳住。而且,GE Vernova 给出的信号是:这不仅是“护卫舰”,还是“豪华护卫舰”。 电话会问答环节里提到,新签的产能预留协议,定价普遍比现有积压订单的价格高出 10%—20%。客户愿意为确定性交溢价,这就是定价权最直接的证明。为了承接这股需求,公司也在扩产:计划 2026 年新增约 200 台新机器,并增加 500 名以上工人。 当把这些信息串在一起看,会发现“AI 的尽头是电力”并不是一句营销口号,而是一条被订单、产能与价格共同验证的产业链事实。 电气化业务爆炸增长 如果说燃气发电解决的是“电从哪里来”,那么电气化业务解决的就是“电怎么送过去、怎么用起来”。而这部分,是很多人读财报时真正会感到意外的地方。 GE Vernova 解释电气化业务的驱动力时,给出了三个关键词:老旧电网升级、能源安全焦虑、以及一个压倒性的主角——数据中心。 财报电话会提到,2025 年直接来自数据中心的订单超过 20 亿美元,是 2024 年的三倍以上。 这个数字的意义在于,它第一次把“虚拟世界里的 AI 热潮”与“物理世界里的电网设备订单”非常直接地挂上了钩:人们每一次使用 AI、每一次在云上处理数据,背后都有数据中心在消耗电力,而电力系统要扩容、要升级、要更可靠,最终就会变成变压器、配电设备、输配电系统的订单。 也正是在这个逻辑链条里,市场开始意识到:AI 的瓶颈未来可能不仅仅是芯片,还可能是电力本身,以及输电与配电的建设能力。 算力时代不只需要 GPU,也需要更强的“电力基础设施”。 为了押注这条线,公司也做了更激进的动作:收购Prolec GE(配电变压器制造商)。 管理层提到,这笔收购大约能带来每年 30 亿美元左右的收入,更关键的是,它显著增强了公司在关键部件上的全球产能。 也就是说,他们不仅在“接订单”,还在“买产能”,用更强的供应能力去迎接这场由 AI 点燃的电力盛宴。 “冰”的世界:海上风电被政策寒流击中 如果财报只讲“火”,它会是一份让人看了热血沸腾的增长故事。但真正像现实世界的财报,往往都要有“冰”的部分。 GE Vernova 的“冰”,主要来自风电业务,尤其是海上风电。 电话会披露,2025 年风电业务亏损大约 6 亿美元,且亏损幅度高于预期。 原因并不是“行业不好”,而是有点戏剧性的执行冲击:在 2025 年 12 月 22 日前后,美国政府的一纸命令导致部分海上风电项目建设被暂停,这直接影响到一个关键项目 Vineyard Wind。 在描述中,这个项目当时接近完工,总共62台风机,只剩11台待安装,几乎就是“临门一脚”。但项目被叫停意味着延期、合同损失、成本上升。 更麻烦的是,如果不能在三月底之前完成安装,可能会失去租来的关键特种船舶,进而使 2026 年约 2.5 亿美元的收入存在不确定性。 大型能源项目的风险很多时候并不体现在“技术会不会做”,而体现在政策、许可、施工窗口期、关键设备与船舶资源这些极其现实的约束上。 但这并不意味着风电业务“全面溃败”。财报同时提到,陆上风电在第四季度反而拿到了全年最大的一笔订单。 为什么会出现这种分化?管理层解释与美国的“安全港条款”有关,这是由于税收优惠导致的“抢跑机制”:为了锁定政策优惠,开发商会赶在截止日期前推进项目,从而带来一波阶段性的订单。 我们可以看到一幅更真实也更复杂的图景:政策可以成为寒冰,突然冻住海上风电;政策也可以成为催化剂,推动陆上风电加速。这就是能源产业的现实,它从不只靠技术或情怀驱动,而是被政策、金融、工程与供应链共同塑形。 未来布局:利润的“延迟满足” 当你把“火”与“冰”放在同一张图上,最后的问题就变成:GE Vernova 怎么规划未来?它的增长到底是短期的景气,还是更长周期的结构性机会? 管理层对 2026 年给出了更明确的指引:预计全年收入约 440—450 亿美元,自由现金流约 50—55 亿美元。但电话会里更值得反复咀嚼的,是一个我很喜欢的表达:利润的延迟满足。 公司明确指出,2024 年和 2025 年签下的那些高利润率新订单,其中相当一部分收入与利润,要到 2027 年甚至更晚才会在财报中更明显地体现。 换句话说,今天看起来热火朝天的订单,其真正的利润兑现,可能还在路上;而一旦到了兑现期,盈利增长的基础已经提前打牢了。 长期目标也很清晰:到 2028 年,总收入至少 560 亿美元,EBITDA 利润率达到 20%。有了庞大的积压订单作“能量储备”,这张路线图显得更可信,因为它不是空喊愿景,而是用合同与交付节奏来支撑。 能源转型,要如何平衡“当下”与“未来” 这份财报的结尾,其实给所有人留下了一个很难回避的问题。 一方面,我们必须用燃气发电与电网升级来满足当下正在爆炸式增长的电力需求,这是“火热的现实”;另一方面,财报又提到小型模块化核反应堆(SMR)、固态变压器、直接空气捕捉等更“冰冷”的未来技术,其中一些项目的贡献可能要到 2030 年以后才会更明显。比如公司提到 SMR 的首个电站已在安大略省开工,但预计要到下一个十年才对收入产生显著贡献。 那为什么现在就要投?因为这家公司很清楚:燃气轮机是今天的答案,但不是终极答案。它必须一手抓住现实需求,一手提前布局未来技术。电话会还提到固态变压器的首台产品已准备交付给一家超大规模计算客户——也就是典型的云服务巨头——这种“把未来技术直接绑定到 AI 基础设施场景”的做法,或许才是能源巨头真正的战略能力所在。 在思考能源转型这个宏大命题时,我们该如何权衡满足当下的紧迫需求,与发展和推广未来技术之间的关系? GE Vernova 给出了一种在现实世界里寻找平衡点的尝试。
SK hynix 押注 HBM 的惊人回报:2025财报揭示 AI 算力真正瓶颈你以为 AI 时代的军火商只有 NVIDIA? 这份 SK hynix(SK海力士)2025 财报给了一个更反直觉的答案:决定 AI 上限的关键瓶颈,正在从“算力”转向“喂数据的速度”。而 HBM(High Bandwidth Memory,高带宽内存),就是那条把 AI 从车库拖上高速公路的“数据高速路”。 本期我们用最通俗的方式拆解: * SK hynix 为什么敢在“看似无聊”的内存行业里 豪赌 HBM? * 58% 营业利润率到底怎么来的:只是行情好,还是战略卡位 + 技术壁垒? * 从 HBM3E → HBM4 → Custom HBM,护城河是不是会被三星/美光追上? * AI 从训练走向推理后,为什么 **HBM + DDR5 + eSSD(企业级SSD)**会一起受益? * 未来定义计算架构的,会不会不再是 CPU/GPU 公司,而是“全栈内存方案商”?
Vertiv深度研究:AI基础设施竞赛、护城河与风险这期我们用 Vertiv(维谛)最新财报做一次“反直觉”案例拆解:营收和EPS轻微不及预期,股价却暴涨17%。华尔街到底在交易什么?答案不在过去的成绩单,而在未来的“订单与交付能力”。 你将听到/看到: * 为什么AI数据中心的真正瓶颈是“电力 + 散热 + 液冷”,而不是模型参数或代码 * 关键财报信号:有机订单+152%、Book-to-Bill 2.9、Backlog 150亿美元意味着什么 * 谁在下单:财报反复提到的 Hyperscalers(AWS / Microsoft Azure / Google Cloud 等) * Vertiv的新打法:模块化、一体化解决方案如何缩短 Time to Token(建得越快、越早产出Token、越早赚钱) * 为什么公司决定不再按季度披露订单与积压订单:lumpy订单带来的波动噪音 vs 长期指标 * 最后的升维结论:“虚拟世界的边界,由物理世界决定。” AI革命背后是一场真实的物理基础设施竞赛
从连接人到连接AI,AI时代的互联网范式转移和Cloudflare财报里的答案互联网是上一波巨大的时代浪潮。它最核心的价值是把人连接起来。连接越多、速度越快、体验越顺,平台就越值钱,商业就越繁荣。 那么,AI时代的互联网,会变成什么样? 当互联网从“连接人”走向“连接AI”,流量的形态、价值的分配、以及商业模式的底层逻辑,都可能被改写。 我们想可以通过Cloudflare最新财报来进行观察。 Cloudflare就像互联网的“门口保安+加速器”:一边帮网站挡黑客、挡爬虫,一边让访问更快、更稳定。他们正好站在这场变革的必经之路上。 Cloudflare刚刚发布的2025年第四季度财报非常亮眼,我们一起来看看:它的增长有多夸张;它是怎么借到AI这股东风的;以及,它凭什么让最挑剔的大公司心甘情愿地提高预算。 1 公司越大,增长反而越加速 先看最直观的数据:Cloudflare第四季度收入 6.145亿美元,同比增长 34%。 说实话,体量到这个级别还能维持34%的增长,已经很强了。但真正值得你停下来多看一眼的,是另一句话:这已经是它连续第三个季度“增长在加速”。 这事儿为什么反直觉?因为商业世界里有个朴素规律:公司越大,增长越难。很多科技公司到了这个规模,都会开始踩刹车,增长率往下走几乎像物理定律一样自然。 但Cloudflare不是“没减速”,而是像在换挡超车。“加速增长”的背后是这份财报里最关键的变化:它的客户结构在变,而且变得非常极端。 财报里有个很硬的指标:年消费超过10万美元的客户,已经达到4298家,贡献了总收入的 73%。这不是“客户多”那么简单,而是说明Cloudflare在大客户那边,已经从可选项变成了必选项。 过去很多人对Cloudflare的印象,是给小博客、小网站用的“创可贴”:帮你做点基础加速和安全防护,省心但不算关键。 现在的它,更像是大公司网络体系里的“主动脉”。愿意一年砸几千万美元的巨头,也离不开它。 如果你还觉得这只是“中大客户变多”,那再往金字塔顶端看,你会更震撼:年消费超过 100万美元 的客户,一年增长 55%,达到 269家。这已经不是“客户买了更多功能”,更像是企业把关键基础设施直接交给Cloudflare托管。 而最有冲击力的,是一个“史诗级大单”:Cloudflare披露当季签下了一份年化合同价值(ACV)高达4250万美元的合同。 一年4000多万美元,这远远超出了“买几个软件服务”的范畴。更像是客户在告诉你:未来几年的技术蓝图、全球数据流、安全体系、远程访问等关键能力,我们准备押在你身上。 这类合同的本质不是采购,而是战略绑定。也正因为如此,问题自然就来了:到底是什么力量,让这些最挑剔的大公司愿意下这么重的注? 2 互联网的范式转移 Cloudflare CEO Matthew Prince在电话会上说得很直白:AI正在推动一场范式转变,这是Cloudflare遇到的最大顺风。 很多公司谈AI容易让人觉得“画饼”,但Cloudflare给出了一个很硬的数据:仅仅在今年1月份,由AI代理(Agents)产生的每周网络请求数量,在Cloudflare网络上翻了一倍多。 互联网正在换用户! 过去是人用浏览器上网,现在是成千上万的AI代理在24小时不停访问网站、抓取数据、调用接口、处理信息,它们不睡觉、不分时段,产生的请求密度和频率跟人类完全不是一个量级。流量的指数级增长不是夸张修辞,而是机器用户天然带来的结果。 而Cloudflare最特别的地方在于,它恰好站在这些流量的“必经之路”上:它是全球网络的关键入口,是加速、安全、路由、计算的基础设施层。 一个极具想象力、但又非常“现实”的商业机会正在形成:当互联网从“连接人”变成“连接AI”,Cloudflare不仅可以收一次钱,而是可能出现“双向收费”的结构。 一端是开发AI的公司,它们要把服务部署得更快、更近、更稳定;另一端是被AI访问的网站和内容方,它们要管理这些新流量、分辨好坏、制定规则、控制成本。两边都绕不开你,这才是真正的顺风。 3 “平台”,而不是工具 财报里提到,一家顶尖AI公司签了一份两年8500万美元的大合同,用的就是Cloudflare的开发者平台 Workers。 Workers是什么?可以把它理解成一种“边缘计算平台”:Cloudflare把自己的全球网络铺到了世界各地,每个节点都能执行代码。 也就是说,客户不是把应用部署在一个遥远的数据中心里,而是把代码部署到离用户最近的网络边缘。 这件事对AI应用尤其关键,因为AI很多场景对延迟极其敏感,尤其是需要实时响应、实时推理、实时数据处理的业务。 更关键的是,它解决了一个AI创业公司最头疼的问题:不用自己费劲在全球各地自建数据中心,也能做到全球低延迟覆盖。 Cloudflare还强调,它在这类交易里能跟AWS、Azure这样的超大规模云服务商正面竞争并赢下来。这里面有两个可能的核心原因: ·性能与延迟:边缘节点更贴近用户,体验更直接。 ·中立性:Cloudflare不做AI模型,也不做内容,它更像基础设施层的“中立平台”。对许多AI公司来说,这种中立性意味着更少的利益冲突、更可控的合作边界。 也正因为这种定位,Cloudflare才可能在AI公司和内容平台之间,扮演一个“诚实的中间人”。 4 内容方正在被AI爬虫“逼着买单” 如果说AI公司把Cloudflare当作部署平台,那内容方的需求更像是被逼出来的。 财报里举了一个典型案例:某媒体公司突然发现,自己的服务器几乎要被各种AI爬虫“爬爆”了,流量成本急剧上升,更麻烦的是,它分不清哪些访问是“好的AI”(比如搜索引擎),哪些是恶意的、或者未经授权的数据抓取。 于是它购买了Cloudflare的AI爬虫控制服务。这个服务的作用很像一个智能门卫:能识别访问者是谁、来自哪里、目的是什么,然后让你设定不同规则——欢迎谁、限制谁、按什么频率访问、是否需要付费授权,等等。 一旦机器用户成为主流,“内容方”就必然需要这类能力,因为这不仅是成本问题,更是版权、数据主权和商业模式生死线的问题。 于是Cloudflare的飞轮开始转起来: 更多AI应用选择在Workers上构建 → AI代理的请求更密集 → 内容方压力更大 → 内容方购买Cloudflare的控制与安全服务 → Cloudflare的网络与平台更强 → 又吸引更多AI应用。 循环一旦形成,增长就会自我强化,这也是为什么它能在大体量下实现“加速增长”。 5 “资金池”模式 除了产品与趋势,Cloudflare还有一个很聪明的“卖法”,这也是它能拿下大客户预算的重要原因:资金池(pool of funds)模式。 可以把它想象成在咖啡店办了一张金额巨大的储值卡:不只买今天的拿铁,也能买店里所有产品,甚至未来推出的新东西,客户都可以直接刷卡,不用每次重新走采购流程。 财报说,第四季度新签的大合同里,有 20% 采用了这种资金池模式。它的意义在于:客户购买的不再是某个具体功能,而是购买Cloudflare未来一段时间的创新能力和产品路线图。 换句话说,这种合同天然筛选出的就是最顶级、最信任你的客户。 当然,这也会带来收入节奏的波动:很多客户会在年底集中消耗预算,使得第四季度收入环比显得特别高,而第一季度可能相对平淡。理解这个逻辑,未来在看Cloudflare季报时,就不会被短期波动误导。 结尾:第四幕(Act IV)战略 聊到这里,你会发现Cloudflare并不满足于“更快更安全”的传统叙事。CEO在电话会上反复提到他们的“第四幕(Act IV)战略”: 要在AI与内容创作者之间建立桥梁,定义下一代互联网的商业模式,成为所谓“Agentic Internet”的全球控制平面。 财报里有个细节很有画面感:一家大银行打电话抱怨,说投行部门辛辛苦苦写的研究报告,正在被各种AI模型疯狂吸走、整合后免费提供给用户,结果付费订阅读者越来越少。 这不是某个行业的偶发事件,而是一个时代问题:当AI代理成为互联网上主要的读者和内容消费者时,我们如何重新定义内容的价值?内容如何定价?访问如何授权?数据如何确权?收益如何分配? Cloudflare真正站在风口的原因,也许不只是它的网络与产品,而是它可能参与到“规则”的制定里。谁能在AI公司与内容方之间建立稳定的机制,谁就可能定义下一代互联网的经济秩序。 而Cloudflare这份财报,已经让我们看到了一个极其清晰的信号:互联网正在变,变的不是界面,而是用户本身。当用户从人变成AI代理,商业模式也必然跟着重写。
亚马逊最新财报:AI布局与真实瓶颈亚马逊的最新财报把 AI 讲成了公司的“底层结构”,他们把AI同时铺在三条战线上:AWS 继续当现金牛且越跑越快,零售体系在悄悄换骨,另外还有几笔看似分散却可能决定下一个十年的下注。 如果把财报里的多条线索串起来,就会发现亚马逊的AI不是“追风口”,而是在把AI变成像电和水一样的基础设施,然后用它重新组织整个公司。 一、AWS:1420 亿美元体量上的加速 先看最震撼的部分:AWS 的增长在加速,季度同比增速到了 24%,这是过去 13 个季度里的最快增速之一,而 AWS 的年化运行率已经冲到 1420 亿美元。 这两个数字放在一起,真正的冲击感才出来:一家公司在“超大体量”上重新踩下油门,难度和小公司翻倍完全不是一个量级。大象不仅在跳舞,而且在加速转圈。 之所以还能加速,答案其实藏在另一个更底层的数据里:自研芯片业务(Graviton + Trainium)已经做成了年化超过 100 亿美元的规模,并且仍保持非常快的同比增长。 这意味着亚马逊把 AWS 的增长动因从“卖云服务”往下拉了一层,落到了“算力供给与成本结构”上:当把核心算力的某部分变成自己的能力,并且规模已经大到十亿美元级别的时候,云业务的增长就不再只是营销、折扣或产品包装,而更像是一套系统工程的外溢效应。 也正是在这个意义上,AWS 的加速更像“结构性增长”:不是因为客户突然更愿意付钱,而是因为 AWS 正在把企业上云、上AI的路径,做成一条更顺、更稳、也更便宜的高速公路。 二、AWS 的“AI 全家桶”到底是什么? 亚马逊在电话会上抛出了一个很清晰的逻辑:企业做 AI,不可能靠一个模型包打天下,它需要的是一个工具箱;而 AWS 想做的,是把这个工具箱做成“标准化的工业体系”,让企业买到的不只是能力,还包括确定性。 这套体系的底层,是 Bedrock。可以把它理解成一个“模型超市”:企业既可以接入 Anthropic,也可以用 OpenAI 体系下的模型(以及开源模型),企业可以自由选择需要的模型,而不会被某款模型所“绑架”。 很多大公司真正害怕的从来不是模型差一点,而是被单一供应商锁死:今天你用 A,明天想换 B,要重做工程、重做合规、重做监控,成本高到让人不敢动。 Bedrock 的价值就在这里——它把“可切换性”做成产品的一部分。 而且这并不只是“方便”,更重要的是集成度:模型调用不是孤立动作,它必须和存储、权限、安全、日志、监控、数据管道深度耦合。AWS 的强项恰恰是把这些东西做成一套原生系统,于是 Bedrock 卖的就不再是“某个模型”,而是“模型选择权 + 工程确定性”。 财报口径里,Bedrock 已经是数十亿美元年化规模,并且客户支出出现了非常显著的环比增长,这说明企业确实愿意为这种“确定性”付费。 再往上一层,是模型定制。亚马逊提到 NovaForge,它的叙事很有意思:与其等模型“毕业”再培训,不如在更早阶段就把企业自己的知识体系和数据安全地融进去。 你可以把这理解成,企业终于不满足于“租一个外部专家”,而是想要一个持续深度绑定,理解公司业务的智囊;这背后是一个更现实的动机——当 AI 真的进入核心业务流程时,企业最看重的往往不是惊艳,而是稳定、可控、可审计,以及能长期沉淀为组织资产。 三、自研芯片,降低成本 任何把AI当底座的公司,最终都会撞上一面墙:成本。训练贵,推理也贵,而且越普及越贵;很多看起来漂亮的应用,一旦规模上来,成本会像水位一样把利润吞掉。亚马逊对此给出的解决方式非常直接:用自研芯片把单位算力成本压下来。 Trainium 想要改变AI的经济学。电话会提到,Trainium 2 相比同类 GPU 在性价比(price performance)上有 30%–40% 的优势,而 Trainium 3 在此基础上又进一步提升,并且产能在未来一段时间里已经被大量锁定。 当行业都在抱怨算力紧缺、成本高企时,亚马逊试图把“供给约束”变成自己的竞争壁垒,并让这种壁垒反向推动云端的增长。 至此,我们可以看到亚马逊AI基础设施的完整布局:Bedrock 解决“选择权”,NovaForge 解决“独特性”,Trainium 解决“性价比”,这三件事拼在一起,才是 AWS 增长加速的真正底盘:不是某一个爆点,而是一套能滚起来的闭环。 四、AI已经重塑零售业务 如果说 AWS 是卖铲子,那么零售就是挖矿现场。更关键的是,亚马逊最大的客户之一,本来就是它自己:零售体系可以天然成为 AWS AI 能力的实验场,而且实验的反馈能直接回流到产品。 很多人对电商的想象还停留在“更快的配送”,但亚马逊更在意的是“更高频的消费习惯”。当平台能把你的日常高频需求握在手里,它就不再只是一个买特别东西的网站,而会变成越来越多人默认打开的“日常商店”。 一旦这种心智成立,真正的价值并不止于零售额,而在于它带来的数据密度:消费数据比社交数据更接近交易,离钱更近,也更适合做广告。 这也是为什么广告业务在亚马逊体系里是被忽视的重要增长力量:财报里,广告业务季度收入达到 213 亿美元,同比增长 22%。它并不是一门孤立生意,而是零售与履约体系长期积累的自然产物:如果能够知道一个人何时可能用完牙膏、偏好哪种麦片、是否正在考虑露营,平台就拥有了广告世界里最贵的东西——可转化的意图。 AI在消费者端的变化同样值得注意。比如购物助手 Rufus:财报口径里,过去一年有 3 亿顾客使用过 Rufus,而使用者的购买完成概率显著更高。 更有意思的是,它的方向不是“更聪明的站内搜索”,而更像“更主动的交易代理”:它把你从“我该怎么搜”带到“你告诉我目标,我来替你完成”。当这种交互成为主流时,电商的竞争维度就会悄悄变化——从“谁的货多、谁的价格低”,慢慢转向“谁更懂你、谁更会替你做决策”。 五、内容与低轨卫星布局 除了AWS与零售两大支柱,亚马逊还在做几件看似分散的事:内容、体育直播、以及连接能力的扩张。把它们单独看,你会觉得这家公司有点“什么都想要”;但把它们放在同一张图上,它们更像是在为同一个核心目标服务:让更多场景、更长链条、更大人群,最终回到同一个系统里。 体育内容的价值从来不只在广告收入,而在于它天然具备用户号召力,可以把人拉进会员体系;一旦用户为了内容留下来,就可能顺手使用配送、购物、音乐、电影,生态的复利就开始发生。亚马逊一直擅长把一个看似昂贵的入口,变成整个系统的增压器。 亚马逊还有一项类似于Space X星链的布局,就是低轨卫星互联网项目Kuiper。单独看它很像一个烧钱、回报慢、还要和星链硬碰硬的业务,但把它放回亚马逊的主叙事里,它更像是在把AWS的边界从“有地面宽带的地方”延伸到“任何地方”。 当偏远矿山、海上货轮、雨林科考站也能稳定接入网络,数据就能持续回流到云端,存储、安全、计算与AI推理才能成为一整套可交付的服务;从这个角度看,卫星不是孤立下注,而是在给AWS加一层新的入口,把更多现实世界的场景纳入同一套系统能力里。 更宏观一点看,这些“下注”共同指向一个结论: 尾声:真正的瓶颈,“物理世界的供给” 亚马逊正在用 AI 重新组织自己的业务结构,并且让结构性的优势在不同业务之间互相输血。AWS 把算力与工程确定性卖给企业,零售把数据与高频交易变成广告与新入口,内容把用户粘性变成会员续费与生态协同,而自研芯片与数据中心投资则把“供给约束”变成战略护城河。 电话会上反复出现的一个词,其实不是“创新”,而是“供不应求”。无论是云端的算力,还是自研芯片的产能,需求都在压着供给跑;管理层甚至直言,如果供应能跟上,增长可能会更快。 为了让“供应跟上”,亚马逊抛出了让人震惊的2000亿美元资本支出。AI时代的云计算不是轻资产服务业,它越来越像一门重工业:机房、服务器、网络、散热、电力接入、土地与施工周期,每一项都需要真金白银和时间表。 市场之所以会反复争论亚马逊的AI投入,并不只是担心它花钱多,而是担心这类投入的回报周期更长、节奏更不均匀:短期利润率可能被折旧与费用压住,但一旦产能爬坡完成,供给释放的那一刻又会直接决定收入的上限。 换句话说,CapEx不是“额外支出”,而是这场增长能不能持续的物理前提,供不应求听起来像需求故事,背后却往往是建设速度、交付能力与供应链协调的故事。 于是问题被推向了一个更大的层面:在这场全球 AI 军备竞赛里,最大的瓶颈也许早就不再是资金或点子,而是芯片、产能、数据中心、电力、网络这些“实体资源”的供给速度。 当科技巨头们开始围绕物理资源展开争夺时,输赢可能不再由谁更会讲故事决定,而由谁更能把资源变成系统能力决定。亚马逊看起来正在押注的,正是这一点。
Alphabet最新财报深度解读:AI成唯一引擎,资本开支飙升到1850亿美元意味着什么?这期我们用一份Alphabet(Google)最新财报,把它的AI战略拆到“能落地的证据”。表面是EPS、营收超预期,真正的主线是:AI正在从“增长引擎之一”变成唯一引擎。我们重点分析四件事: 1)AI搜索如何改变用户行为(查询长度大幅增加),并反向推高广告价值; 2)Google Cloud为什么能做到**+48%,以及2400亿美元Backlog意味着怎样的长期锁定; 3)Gemini如何从用户规模走向商业化,并通过工程优化把单位成本大幅压低; 4)最争议的部分:Alphabet为何计划把资本开支推到1750–1850亿美元,这到底是天才扩军还是危险豪赌? 最后我们讨论它与苹果合作、Waymo进展、以及“AI代理式商业(UCP)”背后的规则之争——这可能决定下一代互联网入口。
AMD 财报超预期却暴跌 17%:华尔街到底在怕什么?AMD 交出一份“看起来近乎完美”的财报:营收高增长、数据中心创新高、MI300 热度拉满;但财报发布后股价却单日暴跌 17%。这不是简单的“利好出尽”,而是市场在重新定价:预期管理失效、一次性收入(出口管制前的加急出货)、Q1 指引的可持续性、以及 AI 芯片竞争格局。 本期视频用一份汇总多家投行观点的报告做底稿,按“华尔街最在意的四个问题”拆解: 1. 为什么“超预期 + 超预期指引”仍然会大跌? 2. 一次性中国出货对 Q4 和 Q1 的含金量影响有多大? 3. AMD 在 AI(对 NVIDIA/CUDA)与服务器 CPU(对 Intel)两张桌子同时作战,优势与短板分别是什么? 4. Helios 机架级系统意味着 AMD 正在从“卖芯片”升级到“卖解决方案”吗? 结尾给你一个更大的问题:当 GPU 霸权争夺进入中期,是否会出现第四种算力力量改变牌局?
AMD 2025 财报拆解:346 亿美元背后是数据中心的双引擎半导体公司AMD刚刚交出了全年营收 346 亿美元、同比增长 34%的成绩单。 这种增长显然不是来自已经成熟的传统PC处理器和游戏显卡,而是受益于AI浪潮。 AMD 的 2025 年第四季度与全年财报展示了:公司的增长重心已经明确转向数据中心,而数据中心的增长又不是单点爆发,而是一套“CPU + GPU 双引擎”共同驱动的系统性升级。 更重要的是,这套升级叙事并不只属于 AMD,它更像一面镜子,把整个科技行业正在发生的变化照得更清楚:AI 不只是 GPU 的狂欢,它正在把数据中心从“大脑”到“肌肉”,再到“神经网络”和“血液循环系统”一起推向全面更新。 一、数据中心成为增长主发动机 这份财报里最无法忽视的数字,是数据中心业务第四季度收入 54 亿美元,同比增长 39%。 很多人谈 AI 时习惯把注意力全部押在 GPU 上,但 AMD 的财报用数据提醒市场:数据中心的繁荣,从来不是一条腿走路。 当云服务商与企业客户持续扩容 AI 集群时,GPU 当然关键,但决定整个系统能否高效运转的“调度层”,同样决定了订单会流向谁、会停留多久。 AMD 把数据中心的第一引擎放在了服务器 CPU 上,也就是EPYC 处理器(中文常译“霄龙”,注意不要和高通“骁龙”混淆)。 财报信息非常直接:无论是面向云服务巨头供货,还是卖给企业客户,EPYC 都创下了历史销售记录;但真正能体现“势能”的细节,来自云平台侧的动作——AWS 与 Google Cloud 在第四季度新增了超过 230 个基于 AMD 处理器的云实例。 这类数字的意义不在于“多了 230 个实例”本身,而在于它揭示了一个被市场长期低估的事实:当大家争抢 GPU 时,云厂商同样在疯狂升级 CPU,因为 AI 工作负载越复杂,越需要高性能 CPU 去承担系统层面的调度与管理。 用更通俗但更贴近工程事实的比喻来说,GPU 是负责核心计算的“超级肌肉群”,CPU 则是协调这些肌肉如何发力的“精密大脑”;如果大脑跟不上,肌肉再强也会出现资源浪费、吞吐不稳、延迟上升,最后表现为更差的性价比与更低的集群效率。 也正因为如此,AI 的扩张并不只会推高 GPU 需求,它会反过来推动整个数据中心的“大脑升级”。从这个角度看,CPU 是 AI 时代被低估的基础设施,而 EPYC 的份额提升,本质上是 AMD 在云端基础设施层面的地位提升。 真正最吸睛的当然还是 AI 加速器,也就是 AMD 的 Instinct GPU,这是数据中心业务的另一大增长引擎。 财报披露了两个关键线索:其一是 MI350 系列出货正在快速攀升,其二是一个更具信号意义的数据——全球排名前 10 的 AI 公司中,有 8 家在使用 AMD 的 Instinct 产品。 在 AI 芯片的竞争叙事里,“进入头部客户”与“进入头部场景”是两件事;前者可能来自试点与小规模验证,后者才意味着产品在训练与推理的核心链路里被真实采用、并且开始沉淀软件与运维层面的粘性。 这个“8/10”的信息,至少说明 AMD 已经不再只是站在场外的挑战者,而是在最顶级的训练与推理场景里,成为了可以被计算进格局的核心玩家。 与此同时,财报里还出现了一个更敏感但同样重要的细节:第四季度约 3.9 亿美元收入来自向中国客户销售的 MI308 产品。在出口环境复杂、合规边界不断变化的背景下,能实现这类规模的交付,本身说明 AMD 在产品组合与合规路径上具备一定灵活性;更值得注意的是,这类“特定市场定制化产品”的存在,往往会影响投资者对未来收入波动的判断,因为它既可能提供额外增量,也可能带来更高的不确定性。 二、PC业务、游戏和嵌入式 数据中心是火箭推进器,但火箭要稳定升空,仍需要足够坚实的发射台。AMD 的发射台来自客户端业务:财报显示,包含 PC 在内的相关业务第四季度收入 39 亿美元,同比增长 37%,表现并不逊色。 进一步拆开看,客户端业务创下了季度收入纪录(约 30 亿美元),Ryzen(锐龙)在台式机与笔记本市场的热度仍在;更有意义的是商用市场的进展——锐龙商用处理器销量同比增长超过 40%,这意味着 AMD 不只是继续在消费端争夺份额,而且在对稳定性、可维护性要求更高的企业端持续渗透。 而在“稳”的基础上,AMD 还试图用 Ryzen AI 去打开“新”的空间。AI 正在从云端走向终端,这并不是一句营销口号,而是由算力成本、隐私需求、延迟要求与应用形态共同决定的趋势;当越来越多的智能计算在本地设备完成时,AI PC 就不再只是换代概念,而会逐步变成一类新的产品范式。对 AMD 而言,AI PC的价值不在于短期多卖几颗芯片,而在于它可能在终端侧建立新的算力入口,并把用户体验的改变量变成可持续的换机动力。 如果说 PC 业务负责“稳住发射台”,那么游戏业务更像是在经历周期性低谷。财报呈现出典型的“好消息与坏消息并存”:一方面,最新的 Radeon RX 9000 系列游戏显卡需求强劲;另一方面,半定制业务(也就是为 PlayStation 与 Xbox 供货的主机芯片)因为进入第七年生命周期末期,管理层预计 2026 年该业务年收入将出现显著的两位数下滑。 这类下滑并不罕见,它更像是主机代际更替带来的周期波动;同时 AMD 也给出了下一轮周期的线索——新一代 Xbox 的开发进展顺利,预计在 2027 年发布,这相当于告诉市场:旧周期的尾声已经看得见,新周期的起点也在路上。 至于看起来“很安静”的嵌入式业务,短期增速确实不高:第四季度收入 9.5 亿美元,同比增长 3%。但嵌入式的价值从来不应以季度增速衡量,因为它玩的不是“爆发力”,而是“长周期的确定性”。财报里最重要的一句是:2025 年嵌入式业务赢得了价值 170 亿美元的新设计订单,并且自收购 Xilinx(赛灵思)以来,累计获得的设计订单总额已经超过 500 亿美元。这意味着什么?意味着这类芯片一旦被设计进汽车自动驾驶系统、工业机器人、医疗设备等场景,通常会在未来 5–10 年持续贡献收入,形成更强的可预测性。 这就是为什么嵌入式更像是 AMD 高速战舰的“龙骨”——平时你未必感受到它的存在,但当市场波动与周期变化来临时,它能显著提高整艘船的稳定性。至于“长期订单是否会被颠覆”的担忧也真实存在,但在汽车与工业领域,平台从设计、测试到认证需要多年时间,客户不会因为出现一颗性能高 10% 的新芯片就推倒重来;高转换成本本身,就是这类业务最扎实的护城河。 三、未来增长的来源 如果说前面的 EPYC 与 Instinct 解释了“增长从哪里来”,那么更大的问题是:增长接下来要往哪里去。 AMD 在财报与管理层表述中,把即将推出的 MI400 系列与 Helios 机架平台称为业务的重要拐点,并预计将在今年下半年开始产生影响。这里的关键词不是“新一代 GPU”,而是“机架平台”——因为当 AI 集群从单卡性能竞争走向系统级竞争时,真正能决定供货规模与客户粘性的,往往是从芯片、互连、软件栈到整机架部署的一揽子能力。 最具戏剧张力的表述,来自与 OpenAI 的多年协议:将部署规模达到6 千兆瓦(6GW)级别的 Instinct GPU。无论你如何评价这个数字的口径与边界,它都在叙事层面传递出一种非常明确的信号:AMD 并非在“试探性参与 AI”,而是在为未来的算力需求做系统级下注。 6GW 的概念之所以震撼,是因为它把“数据中心建设”直接拉升到了“能源基础设施”的维度——当算力扩张与供电约束绑定在一起时,AI 竞争的外延就不再只是芯片性能,而是供应链、产能、部署能力、能源与运维的综合博弈。 这种押注也解释了 AMD 为什么敢提出更激进的中长期目标:未来 3–5 年数据中心业务年增长率超过 60%,并且在 2027 年把 AI 业务规模推进到数百亿美元级别。这类目标是否能完全兑现当然仍需验证,但它至少表明 AMD 对“AI 超级周期”并不是口头认同,而是将其写进了资源配置与产品节奏之中。 当然,AMD数据中心业务的未来也充满挑战。在财报问答中,分析师紧盯HBM(高带宽内存)与产能问题,这并不是“挑刺”,而是抓住了 AI 基础设施升级的真实瓶颈。AI 芯片对数据吞吐的需求是天文级别,你可以把 GPU 想象成超级跑车的 V12 引擎,但 HBM 就是给引擎输送燃料的油管;油管太细,引擎再强也跑不起来,于是所有厂商都会去抢“更粗的油管”,也就是更先进、更稀缺的 HBM 供给与封装产能。 HBM 之所以被追问,本质上说明一件事:支撑 AI 革命需要的不是抽象的技术突破,而是极其庞大的物理基础设施建设与资本投入,芯片、内存、封装、网络、存储、供电与散热共同构成一条必须同时扩容的产业链,而这条链条正在被 AI 以近乎暴力的方式重塑。 结语:AMD再次验证AI超级周期 把所有线索拼起来,AMD 的业务图景已经非常清晰:数据中心与 AI 是绝对的核心引擎与未来主航道,客户端 PC 业务是稳固的基本盘并打开 AI PC 新战场,游戏业务承受周期压力但新一代周期正在酝酿,嵌入式业务则以长期订单与高转换成本提供稳定性。这不仅是一家公司的财报故事,更是整个科技行业趋势的缩影——AI 超级周期不是一个“预测”,而是一种已经在数据中心、供应链与资本开支上全面展开的现实。 因此,在结束之前,真正值得被留下来思考的问题也许不是“AI 是否会改变世界”,而是当基础设施以如此快的速度被搭建、当计算能力逐步不再成为瓶颈时,这些被释放出的近乎无限的算力,将在未来三到五年里,具体如何重塑你的工作方式与日常生活;当今天看似不可能、甚至不敢想象的事情变得可以被低成本计算与快速部署时,明天的“日常”,很可能会超出我们对技术演进速度的旧经验。
Palantir 财报“炸裂”的背后:AI软件巨头正在变成一种“基础设施”Palantir对于我们观察AI时代的软件行业有着非常重要的意义! 如果只看数字,Palantir这份 2025 年第四季度财报几乎带着“炫耀”意味:季度收入 14.1 亿美元、同比增长 70%。在体量已经不小的公司里,这种增速确实罕见。 更具冲击的是,它的增长引擎几乎来自美国本土,而非全球化扩张。财报披露,美国业务贡献了总收入的 77%,且同比增长 93%。 这家公司正在用一条近乎“垂直”的曲线告诉市场: 它正在把自己从一家卖软件的公司,推向一个更难定义、也更难替代的位置——现实世界的AI编排者。 一、40法则:断档领先 在软件行业,投资者长期纠结两件事:公司到底是“长得快”,还是“赚得多”。为了解决这种纠结,市场常用一个简单粗暴却非常有效的体检指标:40 法则(Rule of 40)。 它的算法很直接:得分=营收增长率(%) +(调整后)营业利润率(%);得分只要超过40,通常就被认为是“增速与盈利兼具”的健康公司。 这一次,Palantir 又把自己的得分刷到了127。 这不是“优秀”,而是“断档领先”。因为在同一张对比图里,SAP是 36,Adobe是 55——它们已经是各自赛道里被反复验证的巨头;而 127 的含义,是把“增长”和“赚钱”这两件通常彼此牵制的事情,短时间内同时做到极致。 更重要的是,它的资产负债表还给了一个额外的“安全垫”:账上 72 亿美元现金、几乎零负债。这让它看起来不像一家公司在冲刺,更像一个系统在加速扩张时依然保持结构稳定。 二、增长引擎在哪里? Palantir的“美国收入占比 77%”,但增长却来自两个同时加速的引擎: ·美国商业业务:同比增长 137% ·美国政府业务:同比增长 66% 这不是传统意义上的“一个轮子拉着另一个轮子走”,而更像“双涡轮”同时进气。管理层用一个很有画面感的词形容这种状态:复合式加速——增长不只是发生了,而且增长本身还在不断加速。 这也解释了为什么这份财报会让市场情绪瞬间被点燃:很多 SaaS 公司能增长,但往往以利润为代价;很多政府承包商能稳,但通常很难快。 Palantir 试图把这两种看似矛盾的能力合并到同一条曲线上。 三、秘密不在模型,而在 Ontology 真正能解释合同“跳跃式升级”的,并不是销售技巧,而是一种更底层的产品结构:Ontology(本体)。 为了不让这个词变成学术黑话,我们用一个直观比喻来拆开它: 想象一家大公司的数据——客户、订单、供应链、财务、工厂传感器、员工权限、合同条款——全都像一地散落的乐高积木:颜色不同、形状不同、彼此之间没有说明关系。你当然可以把它们堆起来,但你很难用它们快速搭出能工作的系统。 Ontology 的作用,就是给这堆乐高写一本“数字说明书”。 它做两件关键的事: 1.定义每一块积木是什么(这块代表客户,那块代表订单,这块代表设备……) 2.定义它们之间的关系(客户下单→订单触发→仓储分配→运输调度→财务确认……) 当“说明书”建立起来之后,原本杂乱的数据被组织成一个可理解、可交互、可推演的“数字世界模型”。 此时,AI 才真正有了可以工作的“语义地基”:它不再面对一堆表格,而是在一个结构化的现实映射里做推理、做决策、做自动化。 这也解释了为什么有客户会说“Ontology 是秘密武器”:它不是一个更强的模型,而是让模型终于看懂了现实世界。 四、合同暴涨的机制是“价值扩展” 财报里有一个典型案例:一家公用事业公司,年度合同价值在一年内从 700 万美元增长到 3100 万美元。这种扩张如果发生在传统软件公司,往往需要漫长的产品线铺设与销售周期拉扯。 但在 Palantir 的叙事里,它更像一种自然结果:先解决一个小问题(比如某条供应链的瓶颈);然后很快发现“同一套说明书 + 同一套编排系统”可以迁移到更多场景;于是从一个部门扩展到多个部门,从一个流程扩展到十个流程;合同增长不是“买更多模块”,而是“把同一套底座铺到更大的组织范围” 这背后的关键不是“功能”,而是现实建模 + 组织编排带来的规模复用。 更极端的例子是:一家医疗保健公司派人参加两次训练营,随后在年底前签下 9600 万美元的大单。这里的信号很清晰:一旦客户在组织内部完成“模型可用、数据可通、权限可控、流程可跑”的闭环,扩展会像滚雪球一样发生。 五、政府业务:把“效率提升”变成“国家能力” 商业案例让人兴奋,但政府案例更能说明 Palantir 想成为什么。 财报提到与美国海军合作的 SHIPPOS 项目,目标是把造船工业供应链“现代化”。演示材料中有一个对比数据极具冲击力:在某造船厂,潜艇调度规划时间从 160 小时缩短到 10 分钟。 这意味着什么?意味着过去一个团队忙整整一周的工作,现在可能只是一个人喝一杯咖啡的时间。 在国家安全语境下,这不再是“节省成本”这么简单,而是把抽象的软件能力转化为现实世界可衡量的战备与生产能力——建造更快、调度更快、审查更快、响应更快。也正是在这种场景里,Palantir 的“操作系统”叙事显得更具说服力:它不是提供某个模型,而是在提供一种让组织可被 AI 驱动的体系。 六、AIP 的本质:“帮你指挥 AI” 材料里反复出现另一个关键词:AIP(AI Platform)。它被描述为实现“企业自主”的平台,但如果翻译成更直白的商业语言,它更像一个指挥系统。 原因在于:在 AI 时代,模型会越来越便宜、越来越容易获取,真正稀缺的不是模型本身,而是让上百个模型、数据源、权限体系、业务流程在同一个组织里协同工作;让 AI 能安全地接入系统、调用工具、生成方案、执行动作,并对结果负责;让“试验”变成“生产”,让“Demo”变成“流程”。 Palantir 把这件事称为 Orchestration(编排)。如果用乐团类比:Ontology 是总谱;AIP 是指挥家;各种模型与工具是乐手。 真正的壁垒,是指挥系统能否让整个组织奏出同一首曲子,而不是乐手本身水平有多高。 七、展示世界观的CEO信 如果说财务数据展示了增长,技术材料展示了路径,那么 CEO 致股东信展示的,是这家公司想要的世界观。 信中反复强调一个“鸿沟”正在出现:一边是懂得利用 AI 的“富人”,另一边是被 AI 抛下的“穷人”。他把公司定位为服务“建设者”的组织(builders),并刻意与所谓“清谈阶层”(chattering class)拉开距离。 这种语言当然带有强烈的对立感,也天然具备传播张力;但更重要的是,它在向客户与资本市场传递一个信号:Palantir 不愿意被当成一家普通软件公司来估值,也不愿意用普通软件公司的方式经营自己。 更具争议、也更耐人寻味的是它对政府业务的辩护:信中声称,通过更精细的权限控制与完整审计日志,系统可以确保“每个人只看到被授权看到的内容”,从而在技术层面约束权力滥用,甚至把这一点与美国宪法第四修正案的精神联系起来。 人们也许未必认同这种自我定位,但很难否认:这家公司确实在用一种罕见的方式,把技术、制度与价值观绑定在一起,并把这种绑定当作竞争力的一部分。 结语:Palantir,更深层次的问题 读完这些材料,一个结论会越来越清晰:Palantir 正在把自己从“软件供应商”推向“关键系统合作者”,从“企业工具”推向“国家与产业的基础设施层”。 这也带来一个更尖锐的问题—— 当一家拥有强烈文化、明确道德框架,并且不断强化“我们是独一无二类别”的科技公司,深度融入国防、能源、造船、医疗等关键系统之后,它对未来公共机构与私营科技巨头之间的权力边界、责任边界与治理边界,究竟意味着什么?