

#7 Emmett Shear - 打造懂得关怀的人工智能特维奇(Twitch)创始人、OpenAI 前临时首席执行官埃米特・希尔(Emmett Shear)对推动通用人工智能(AGI)发展的基本假设提出质疑。在与埃里克・托伦伯格(Erik Torenberg)和塞布・克里尔(Séb Krier)的对话中,希尔认为,用于人工智能对齐(AI alignment)的整套 “控制与引导” 范式存在致命缺陷。相反,他提出了 “有机对齐”(organic alignment)的概念 —— 即教会人工智能系统像人类本能那样真正关心人类。 这场讨论探讨了以下关键问题:为何将通用人工智能视为工具而非潜在 “存在体” 可能会引发灾难性后果;当前的聊天机器人为何会成为 “自恋的镜子”;以及为何唯一可持续的发展路径是打造能够对有害请求说 “不” 的人工智能。希尔还分享了其新公司索夫特马克斯(Softmax)通过多智能体模拟(multi-agent simulations)实现 “有机对齐” 的技术路径,并提出了一个出人意料的乐观愿景:若能实现正确的人工智能对齐,人类与人工智能有望成为协作伙伴。 a16z episode 972 Emmett Shear, founder of Twitch and former OpenAI interim CEO, challenges the fundamental assumptions driving AGI development. In this conversation with Erik Torenberg and Séb Krier, Shear argues that the entire "control and steering" paradigm for AI alignment is fatally flawed. Instead, he proposes "organic alignment" - teaching AI systems to genuinely care about humans the way we naturally do. The discussion explores why treating AGI as a tool rather than a potential being could be catastrophic, how current chatbots act as "narcissistic mirrors," and why the only sustainable path forward is creating AI that can say no to harmful requests. Shear shares his technical approach through multi-agent simulations at his new company Softmax, and offers a surprisingly hopeful vision of humans and AI as collaborative teammates - if we can get the alignment right.
#5 Nathan Benaich解读2025 AI发展趋势报告电力成新瓶颈,推理落地见真章,商业价值终兑现在这场内容广泛的对话中,我与 Air Street 资本公司创始人兼普通合伙人内森・贝内奇(Nathan Benaich)展开深入交流,探讨其最新发布的《2025 年人工智能现状报告》—— 包括目前哪些技术真正可行、哪些只是炒作,以及下一个竞争优势将来自何方。 我们的讨论从物理层切入:能源采购、购电协议(PPAs)、离网设施建设,以及为何水资源与电网限制正使电力(而非图形处理器 / GPUs)成为决定性的竞争壁垒。 随后,我们将话题转向技术能力层面:在可验证领域中,推理模型正扮演着人工智能协科学家的角色;而机器人技术领域出现的 “行动链” 变革,正推动该技术从精心包装的演示案例走向可靠的实际部署。在此过程中,我们也剖析了市场现实 —— 哪些主体正在创造真实收入、当代币与推理技术面临定价问题时利润率实际表现如何,以及这一切对开发者与投资者意味着什么。 我们还将视角扩大到整个生态系统:英伟达(NVIDIA)与定制芯片的市场地位对比、中国人工智能技术栈的 “分裂式” 发展、主权人工智能的兴起(以及随之而来的 “主权粉饰” 现象)。此外,我们也深入审视了政策与安全领域的现状 —— 监管风向的转变、数据权背后的现实政治博弈,以及智能体(agents)与主控制程序(MCP)对网络安全风险及技术应用普及的影响。 对话最后,内森分享了他看好的投资领域(生物科技、国防、机器人技术、语音技术),并对未来 12 个月提出了三项预测。 (0:00) – 开场:“巨额资金投入,推理能力落地” (0:40) – 引言:与内森·贝内奇(Nathan Benaich)探讨《2025年人工智能现状报告》 (02:06) – 推理能力成真:从“思维链”到可验证的数学领域突破 (04:11) – 人工智能协科学家:提出假设、湿实验室验证,减少“无意义随机模仿” (04:44) – 行动链机器人技术:可审计的“规划→执行”流程 (05:13) – 人形机器人 vs. 仓储场景现实:机器人技术率先落地的领域 (06:32) – 商业价值终兑现:当前哪些主体在创造真实收入 (08:26) – 技术采用与投入:增长数据、用户留存率,及“影子AI”缺口 (11:00) – 利润率争议:代币、定价机制,及“浅层包装陷阱” (14:02) – 泡沫还是繁荣?华尔街与旧金山(科技圈)的不同氛围(及循环交易现象) (19:54) – 电力成瓶颈:每千兆瓦500亿美元资本支出,构筑新竞争壁垒 (21:02) – 购电协议(PPAs)、燃气轮机与离网设施建设:能源采购策略 (23:54) – 水资源、电网与“邻避效应”(NIMBY):可持续发展的政治化挑战 (25:08) – 英伟达(NVIDIA)的竞争壁垒:90%的相关论文采用率、博通(Broadcom)/超微(AMD)竞争,及定制芯片发展 (28:47) – 中国“分裂式”技术栈:华为、寒武纪(Cambricon),及出口政策的曲折变化 (30:30) – 主权人工智能还是“主权粉饰”?开源技术的杠杆作用 (40:40) – 监管与安全:从布莱奇利会议到“AI行动”——监管风向的转变 (44:06) – 安全预算 vs. 实验室投入;规避评估的模型(“钻评估空子的模型”) (44:46) – 数据权现实政治:15亿美元(支出)彰显新的训练成本 (47:04) – 智能体时代的网络风险:主控制程序(MCP)、恶意软件大语言模型(malware LMs)、国家行为体 (50:19) – 具备转化能力的智能体:从搜索到商业变现,及“演示飞轮”效应 (54:18) – 风投视角:内森的投资布局(生物科技、国防、机器人技术、语音技术) (68:29) – 预测:能源政治、人工智能中立性、端到端技术突破 (1:02:13) – 收尾:后续关注重点及报告获取渠道(官网stateof.ai)
#6 仅智能远远不够 - 能源与算力将决定通用人工智能(AGI)竞赛的走向前沿人工智能与现实世界基础设施的碰撞 普赛德(Poolside)联合首席执行官兼联合创始人艾索·坎特(Eiso Kant)做客《MAD播客》,深入解读“地平线计划”(Project Horizon)——这一位于美国西德克萨斯州、规模达数吉瓦(GW)的基础设施建设项目——并剖析为何前沿实验室必须掌控能源、算力与智能技术,才能在竞争中立足。我们还将梳理代币经济逻辑、云服务模式利润率,以及采用2.5兆瓦(MW)模块化机组分阶段推进250兆瓦算力部署的具体方案。 随后,话题转向实际运营层面:与CoreWeave的核心租户合作模式、环保方案选择(选择性催化还原技术/SCR、可再生能源+天然气+电池储能组合)、对社区的影响,以及普赛德如何规划在不通过租赁让渡利润的前提下快速激活算力产能;此外,还将探讨由前置部署研究工程师推动的企业级业务进展(从国防领域拓展至《财富》500强企业客户)。 最后,我们深入探讨模型训练领域。艾索详细介绍了“面向学习的强化学习”(RL2L,Reinforcement Learning to Learn)技术——其目标是对网络世界的思维模式与行为逻辑进行逆向工程——并分析智能为何可能成为大宗商品、这一趋势对智能体(agents)意味着什么,以及在向更广泛知识工作领域拓展之前,编程为何能成为衡量长周期推理能力的替代指标。 (00:00) 开场——“智能已成为大宗商品” (00:23) 主持人引言——“地平线计划”(Project Horizon)与“从现实学习强化学习”(RL2L) (01:19) 为何在前沿实验室林立的环境下,Poolside仍有存在价值 (04:38) 地平线计划:打造美国规模最大的数据中心园区之一 (07:20) 为何要自主掌控基础设施:规模效应、成本优势与规避“表面化模仿”(cosplay) (10:06) 经济层面深度解析:2.5亿瓦(250 MW)算力设施需80亿美元投入,资本支出/运营支出(capex/opex)与利润率分析 (16:47) 与CoreWeave的合作:核心租户(anchor tenant)模式+灵活扩展能力 (18:24) 招募顶尖人才:构建实体基础设施团队 (30:31) 当下的强化学习(RL)→ 智能体化强化学习(agentic RL)与长周期任务 (37:23) “从现实学习强化学习”(RL2L)深度解读:对网络世界的思维与行动进行逆向工程 (39:32) 持续学习与“热炉效应”局限(“hot stove” limitation) (43:30) 智能体争议:浅层包装(thin wrappers)、差异化竞争与模型坍缩(model collapse) (49:10) “人工智能是否进入平台期?”——芯片迭代周期、规模上限与新发展维度 (53:49) 为何软件曾是(AI能力的)替代指标;向企业知识工作领域拓展 (55:17) 模型现状:从“马里布模型”(Malibu)到“拉古纳模型”(Laguna)(含小/中/大三种规模) (57:31) Poolside当前商业落地实况:国防领域、《财富》500强企业、埃塞俄比亚联邦民主共和国(FDRE) (1:02:43) 全球化团队,规避“回声室效应”(echo chamber) (1:04:34) 未来12-18个月:前沿模型研发+基础设施规模化扩张 (1:05:52) 收尾
#4 Grant Lee: 将Gamma打造成拥有1亿用户的AI公司格兰特・李(Grant Lee)曾在一次 Zoom 会议中,被一位投资人直言 Gamma 的想法是 “听过最糟糕的点子”,对方甚至中途挂断了通话 —— 但他仍将 Gamma 打造成了一家拥有 1 亿用户、年度经常性收入(ARR)达 1 亿美元的企业,且期间未花费一分钱用于广告投放。 当竞争对手大肆招兵买马时,格兰特麾下仅 7 人的团队却拒绝扩张,还将这个小团队中 25% 的人力投入到设计工作中,并且每位意见领袖(influencer)的入驻引导,都由团队成员亲自完成。 他们透露了成功的关键:前两年刻意不涉足人工智能领域,之后却以顶尖实验室都无法复制的方式整合多个模型,最终从微软(Microsoft)和谷歌(Google)手中抢占了演示文稿市场 —— 用户注册量从 8 个月 6 万人,跃升至日均 5 万人。 [a16z 967]
#3 李飞飞:空间智能前沿李飞飞(Fei-Fei Li)与贾斯汀・约翰逊(Justin Johnson)是人工智能领域的先驱者。尽管全球消费级人工智能热潮近年来才兴起,但二人早已为如今改变各行业的创新技术奠定了基础。 随着二人创立的公司 World Labs 推出首款产品 Marble,我们不妨回顾这段对话,探寻一切创新理念的起点。World Labs 专注于空间智能领域,致力于构建能够感知、生成 3D 世界并与之交互的 “大型世界模型”(Large World Models)。Marble 将这一愿景变为现实:无论是个体创作者,还是大型平台,任何人都能通过文本或图像提示词直接生成 3D 场景,将复杂的 3D 创作转化为简单、富创造性的过程。 在本期内容中,风投公司 a16z 的普通合伙人马丁・卡萨多(Martin Casado)与李飞飞、贾斯汀展开对话,探讨了从早期 “人工智能寒冬” 到深度学习崛起,再到多模态人工智能发展的历程。从 ImageNet(图像识别数据库)等基础性突破,到空间智能这一前沿领域,三人共同梳理了人工智能领域的发展脉络,并展望了 World Labs 未来的创新方向。 [a16z 969] 时间轴: 0:00 – 人工智能的下一个十年 2:45 – 缘起:创始人的背景故事 6:50 – 深度学习的崛起与 ImageNet 的诞生 8:00 – 算法突破:算力、数据与监督学习 12:00 – 从预测性人工智能到生成式人工智能 16:20 – 迈向空间智能的探索之路 18:35 – 何为空间智能:定义与核心 21:15 – 3D 数据、计算机视觉与关键突破 23:15 – 计算机视觉中的 “重建” 与 “生成” 24:45 – 空间智能与语言模型的对比 29:00 – 应用场景:虚拟世界、增强现实与物理世界 39:55 – World Labs 的构建:团队与愿景 41:55 – 核心目标:空间智能领域的成功衡量标准
#2 Quora创始人Adam D’Angelo我们离AGI还有多远?亚当・德安杰洛(Quora/Poe 创始人)认为,距离实现远程工作自动化还有 5 年时间。阿姆贾德・马萨德(Replit 创始人)则认为,我们目前是在未理解智能本质的情况下,通过 “暴力破解” 的方式追求智能。 在这场对话中,这两位致力于打造人工智能未来的技术创始人,在几乎所有问题上都存在分歧:大型语言模型(LLMs)是否已触及发展瓶颈、我们是否已接近通用人工智能(AGI)、当入门级岗位消失但专家仍无法被替代时会发生什么。他们深入探讨了一个令人不安的现实:人工智能可能会在就业市场中造成 “中间层缺失”;为何旧金山的所有人突然都过度专注于赚钱,而不再进行新奇的实验;以及意识研究是否已让位于提示词工程。 Adam D’Angelo (Quora/Poe) thinks we're 5 years from automating remote work. Amjad Masad (Replit) thinks we're brute-forcing intelligence without understanding it. In this conversation, two technical founders who are building the AI future disagree on almost everything: whether LLMs are hitting limits, if we're anywhere close to AGI, and what happens when entry-level jobs disappear but experts remain irreplaceable. They dig into the uncomfortable reality that AI might create a "missing middle" in the job market, why everyone in SF is suddenly too focused on getting rich to do weird experiments, and whether consciousness research has been abandoned for prompt engineering.
#1 Cursor 如何以 AI 的速度进行产品开发当其他所有人都在开发人工智能代理时,四名麻省理工学院(MIT)的毕业生却决定打造一款代码编辑器,最终他们创造出了有史以来用户增长最快的开发者工具。 Cursor 公司首席执行官迈克尔・特鲁尔(Michael Truell)与 a16z(安德森・霍洛维茨基金)的马丁・卡萨多(Martin Casado)展开对话,探讨了那些助力实现突破的审慎性限制条件:为何他们拒绝 “大众化” 叙事,转而聚焦专业级用户;他们为期两天的工作试用如何优先考察实际能力而非资质证明;以及在传统观念认为 “不可能” 的情况下,他们选择自主掌控编辑器开发的战略决策。 When four MIT grads decided to build a code editor while everyone else was building AI agents, they created the fastest-growing developer tool ever built. Cursor CEO Michael Truell joins a16z’s Martin Casado to discuss the deliberate constraints that led to breakthroughs: why they rejected the "democratization" narrative to focus on power users, how their 2-day work trials test for agency over credentials, and the strategic decision to own the editor when conventional wisdom said it was impossible.