A16z安德里森:AI不是“下一个互联网”,而是一场80年革命的兑现最新观点

A16z安德里森:AI不是“下一个互联网”,而是一场80年革命的兑现

15分钟 ·
播放数2
·
评论数0

这两年,AI几乎成了所有科技讨论的“背景音乐”。但真正值得警惕的,是我们很容易把它当成一次短期风口:模型更聪明了、算力更贵了、资本更疯狂了——于是话题就停留在“热不热”“泡不泡”。

a16z最近的一场分享里,马克·安德里森(Marc Andreessen)给了一个完全不同的切入点。

马克·安德里森是硅谷最具影响力的互联网创业者与风险投资人之一,曾共同开发早期广泛普及的图形化浏览器 Mosaic,并联合创办 Netscape,推动互联网走向大众化。此后他与 Ben Horowitz 共同创立风险投资机构 Andreessen Horowitz(a16z),长期投资并塑造了多代关键科技公司与产业趋势。

在这次分享中,他不是在讨论“这波AI会不会退潮”,而是在画一张更长周期的未来地图:AI会把钱从哪里吸来?权力会落到谁手里?产业结构会变成什么样?

如果只用一句话概括他的核心判断,那就是:

这不是互联网的下一波浪潮,而是一场酝酿了近80年的技术革命,正在进入兑现承诺的阶段。

听上去夸张,但恰恰是理解当下争论的钥匙。

一、别把AI当“新科技”:它是一场80年长跑的最后冲刺

很多人会下意识觉得:AI是这两年突然火起来的,真正的起点是ChatGPT。

安德里森的说法更“拉长镜头”。他把时间线往回推到计算机科学的源头,并指出在 1930年代,计算机其实站在一个岔路口上:

·一条路:把机器做成“超级高效的加法器”,也就是更快、更强、更稳定的计算设备。这条路线成为主流,塑造了IBM等公司,也塑造了我们过去几十年对“电脑”的典型印象——数学能力极强,但你跟它说话,它听不懂。

·另一条路:不让机器做数学题,而是尝试模仿人类大脑的结构。这条路线当时更像“科幻”,后来长期被搁置,但它对应的概念我们今天很熟悉:神经网络。

他还提到一个很有画面感的细节:关于神经网络的关键论文,在 1943年就出现了;而论文作者之一甚至在 1946年的电视采访里预言“未来计算机一定会基于人脑模型构建”。

这条路线后来经历了多次沉浮、几次“AI冬天”,在某些阶段甚至被视为死胡同。但就是有一批人没有放弃。直到ChatGPT这样的里程碑出现,世界才集体意识到:那条被长期搁置的路线不仅走得通,而且潜力巨大。

所以,今天的“爆发”并不是凭空发生。它更像是——一场长周期科研与工程积累终于跨过临界点,进入兑现阶段。

二、AI到底烧不烧得起?多数人把账算错了

AI最常见的质疑只有一句话:太烧钱了,这商业模式怎么可能成立?

安德里森的回应很直接:很多人只盯着成本,却严重低估了需求与收入潜力。他把“经济账”拆成两端:消费端与企业端。

1)消费端:AI有一个前所未有的“分发优势”

电力、电视这些通用技术的普及,往往需要几十年。AI不一样,它直接站在互联网之上,可以在极短时间触达全球用户。

这意味着:AI的扩散速度,本身就会重写商业化路径。

他还观察到一个看似离谱但很现实的趋势:一些AI公司正在尝试极高价订阅——比如每月200甚至300美元。

听起来贵,但它的逻辑是:用更高客单价换取更强现金流,持续投入研发,做出真正“顶尖”的产品,然后服务那批愿意为高质量付费的专业用户。

2)企业端:商业模式更干脆——按 token 付费

在企业端,他认为商业模式反而更清晰:按token计费。

你可以把token理解成“智能的计量单位”。企业调用模型处理文本、生成图片、改写邮件、辅助客服,本质上是在按消耗的智能单位付费。

这不是玄学,也不是“概念”,而是一种非常可结算的交易结构:

·你想把客服满意度提高5%;

·你想让营销邮件点击率翻倍;

·你想把销售话术、投放素材、产品文档变得更高效……

只要这些提升带来的收益大于token成本,这笔账就成立。

企业真正关心的不是“AI酷不酷”,而是ROI:智能到底值多少钱。

三、最关键的变量:智能单位成本正在“超级通缩”

整场分享里,安德里森最核心、也最具争议的一点,是他对成本曲线的判断:

AI的单位成本下降速度,可能比摩尔定律还快。

他把这个过程叫做“超级通货紧缩”。意思是:同样的智能能力,会在更短时间内变得更便宜。便宜到超出我们对硬件时代的直觉。

这会引发一个经典反驳:可我们每天都在听新闻——GPU很贵、很缺、甚至被少数公司垄断,成本怎么可能降得下来?

安德里森的回答是:这种担心更多是短期视角。长期看,几个变量会同时推动成本下行:

1.资本正在以极大规模涌入芯片制造、数据中心等基础设施领域,供给会被快速拉升;

2.在传统产业里常见的规律是:短缺会引发扩产,扩产会带来成本下行;

3.很多人忽视了硬件的“寿命”:GPU并不是一年就报废的设备。若硬件可用多年,那么今天投入的基建成本,会在更长周期里持续摊薄,提供越来越便宜的算力。

换句话说:争论的关键不在“今天贵不贵”,而在于“成本曲线是否会持续陡峭下行”。安德里森押注的是后者。

四、产业格局不是“赢家通吃”:少数巨型模型 + 海量小模型共存

当成本下降、能力扩散,产业结构会变成什么样?

安德里森的图景是一个“金字塔”:

·顶端是少数超级强大的巨型模型,像“上帝模型”一样不断冲击智能上限;

·底部和中部则是海量更小、更便宜、更易部署的专用模型,被嵌入到手机、汽车、家电、门锁等各种实体产品里。

支撑这种结构的机制,是他提出的“追赶函数”:大模型开疆拓土,小模型快速复制普及。

他的观察是:一个顶尖大模型费尽心力实现的新能力(比如更强推理),往往在 6到12个月后,就会被更小、更便宜的模型复制出来。

原因有两类:

·知识传播速度极快(论文、工程经验、开源生态);

·训练技巧与算法持续优化,让小模型用更少资源达到过去大模型才能达到的效果。

这也解释了为什么“模型能力”不像传统硬件那样形成长期垄断:领先者确实领先,但领先成果会快速扩散。

最终结果不是单一路线,而更可能是:顶端不断突破,底部迅速普及。

五、开源 vs 闭源:不是商业选择,而是“人才供给”的结构性问题

谈到开源和闭源,很多人习惯把它当作“商业模式之争”:OpenAI更闭源,Meta更开源,谁能赚更多钱?

安德里森的落点更深:开源的最大价值,是解决AI发展里最根本的瓶颈之一——人才短缺。

为什么?

因为最好的AI学习材料,往往不是教材,而是最先进的模型本身。当开源模型被公开,全世界任何有天赋的年轻人都可以下载、研究、修改,相当于把“最顶尖的武功秘籍”免费公开。

这会以远超传统教育体系的速度,培养下一代AI工程师与研究者。于是,开源不仅是技术路线,它会变成生态结构的一部分。

六、中美竞赛:外部竞争正在重塑政策与创新环境

当讨论走到全球层面,安德里森提到中美竞赛。

他认为这和过去美苏冷战不同:中美在经济上深度捆绑,但地缘竞争又极其现实,因此这更像一场“双马竞赛”。

他还提到一个值得玩味的政策推论:当华盛顿的决策者意识到这不再是“美国公司自己玩的单马竞赛”,而是“真正的双马竞赛”时,美国国内那些可能扼杀创新的极端立法风险,反而可能下降。

原因很简单:当竞争压力足够大,首要任务会变成“不能落后”。从这个角度看,竞争客观上可能加速全球AI技术发展,并改变监管议程的排序。

七、最后的关键问题:别听人们怎么说,要看他们在做什么

在结尾,安德里森借用了社会科学里的经典观察:

如果你想了解人们的真实想法,是去问他们,还是去观察他们的行为?

在AI问题上,两者的差异巨大。

如果你做民意调查,你会听到大量恐慌:担心失业、担心失控、担心反乌托邦。但如果你观察现实行为(显示性偏好),你会看到几乎相反的景象:

人们在用AI写工作报告、做方案、改邮件、处理情绪问题、甚至做健康建议——它已经在以各种方式渗透到日常生活里。

于是,一个更尖锐的问题被抛给所有人:

当你判断AI的真正走向时,你更相信媒体上那些充满焦虑的标题,还是更相信你身边不断发生的真实使用行为?

结语:判断AI,不要只盯“情绪”,要盯“结构变量”

安德里森的蓝图未必每个细节都正确,但它提供了一种更高维的观察框架:把AI从短期热点拉回到长周期技术与产业演化,并把注意力从“今天的情绪与价格”转向几个更硬的变量:

·成本曲线是不是会持续快速下行;

·能力扩散是不是会越来越快;

·产业结构会不会走向“少数巨型 + 海量小型”的共存;

·人才供给与开源生态会怎样影响竞争格局;

·真实使用行为是否持续增长。

也许,理解AI时代最稳妥的方法不是预测结局,而是持续观察:钱正在流向哪里,能力在以什么速度普及,普通人和企业又在如何把它嵌入真实流程。

当这些变量一起指向同一个方向时,所谓“风口”就不再是风口,而更像一场结构性迁移。