

从 Meta 杰出工程师到 90% 代码由 AI 生成的时代【本期嘉宾】 Michael Bolin,现任 OpenAI Codex 仓库技术主管。他曾任 Meta 杰出工程师(E8/Principal Engineer),并在 Google 工作多年,参与了 Google Calendar、Tasks 等知名产品的开发。他是著名构建系统 Buck 和虚拟文件系统 Eden/Miles 的背后推动者。 【本期看点】 在本期节目中,Michael 分享了他从早期的 Firefox 插件研究到在硅谷巨头公司解决核心工程难题的经历。他深入探讨了 AI 如何彻底改变了他的编程工作流,以及在研究导向(OpenAI)与工程导向(Meta/Google)文化之间切换的真实感受。 给工程师的进阶建议: * 为什么每个程序员都应该尝试 CTF(夺旗赛)。 * 职业成长的三步走算法:兴趣、价值与交集。 * 在 AI 工具普及的今天,理解底层抽象(操作系统、C/Rust 等)为何依然至关重要。
AI 编程的“危险幻觉”:对话 Jeremy Howard,重寻软件工程的真谛本期简介: 在这期充满洞见的对话中,深度学习先驱、fast.ai 创始人 Jeremy Howard 与我们探讨了 AI 编程背后被忽视的危机。他直言不讳地指出,当前的 AI 辅助编程流派正在创造一种“非人道”的工作方式,并可能导致个人与组织的**“理解债务”**。从 ULMFiT 的历史突破到 AI 时代的软件工程本质,Jeremy 呼吁我们重新审视人类与计算机交互的深度。 本期核心话题: * AI 编程的“老虎机”效应: Jeremy 认为,目前的 AI 编程让开发者陷入了一种控制幻觉。你调整提示词、拉动“杠杆”,然后得到一段没人真正理解的代码。这种随机性的成功(stochastic winning)具有赌博成瘾的所有特征,却掩盖了生产力并未大幅提升的事实。 * 编码(Coding)与软件工程(Software Engineering)的鸿沟: LLM 在处理“风格迁移”式的编码任务(即根据规格说明合成代码)上表现出色,但这并非软件工程。软件工程的核心在于设计抽象、构建模型以及处理从未出现过的问题,而目前的 AI 在这些方面依然束手无策,甚至只能生成训练数据的“非线性平均值”。 * 警惕“理解债务”与技能萎缩: 当开发者习惯于“自动驾驶”模式,不再通过亲手编写代码来建立直觉时,他们的能力会像肌肉一样萎缩。Jeremy 担心,这种**“非强制性困难”**的缺失会让中级开发者难以向高级跨越,最终导致个人和组织的双重平庸。 * “非人道”的交互 vs. 交互式学习: Jeremy 批评了仅通过终端提示词与 AI 交互的方式,认为这剥夺了人类观察、操纵对象并获得实时反馈的机会。他坚持认为,像 Jupyter Notebook 这样的交互式环境才是人类与 AI 协作的最佳场所,因为它们允许人类在构建系统时不断完善自身的心理模型。 * AI 的社会性风险:权力的中心化: 除了技术层面的讨论,Jeremy 还表达了对权力垄断的担忧。他认为比起“AI 灭绝论”,更现实的威胁是社会精英或政府垄断这种强大的技术,从而剥夺大众的权利。 关键术语/人物参考: * ULMFiT: Jeremy Howard 早期提出的通用语言模型微调技术,奠定了现代迁移学习的基础。 * Brett Victor: 被 Jeremy 多次引用,强调人类应与所做之事保持直接、直观的连接。 * Understanding Debt (理解债务): 指因过度依赖自动化工具而导致对系统运作机理丧失掌握的现象。 结语: “如果我们不能让工具使人变得更博学、更快乐、更具深度,那就是工具的失败。” 听完本期节目,希望你能重新找到与代码、与现实“对抗”的乐趣。
从“软件工程师”到“构建者”:AI 时代每个人都是产品经理这份关于采访 Anthropic Claude Code 负责人 Boris Cherny 的节目摘要涵盖了 AI 编程的现状、软件工程的未来、产品开发原则以及 AI 安全等核心议题。 嘉宾简介 * Boris Cherny:Anthropic Claude Code 负责人。他曾就职于 Meta(负责 Facebook、Instagram 的代码质量和生产力),并是一位自学成才的工程师。 -------------------------------------------------------------------------------- 核心议题与要点 1. 编程范式的彻底改变 * 从工程师到“构建者” (Builder):Boris 认为“软件工程师”这一头衔将逐渐消失,取而代之的是“构建者”。到 2025 年底,人们可能不再需要 IDE 来编程,而是通过对话和代理来构建软件。 * 100% AI 编写代码:Boris 自 2025 年 11 月起就没有手动写过一行代码,他每天通过 5 个同时运行的 AI 代理交付 10 到 30 个 PR。 * GitHub 的指数级增长:报告显示目前 GitHub 上 4% 的提交是由 Claude Code 完成的,且这一比例正在快速增长。 2. 新产品:Co-work 与代理化 AI * Co-work 的诞生:这是 Anthropic 推出的一款面向非技术任务的 AI 代理产品,旨在处理如支付罚单、项目管理、自动回复邮件等日常工作。 * Agent (代理) 的定义:Boris 强调“代理”不仅是对话,而是能使用工具(如 Gmail、Slack、运行终端命令)并在系统中实际采取行动的 LLM。 3. 产品开发原则:潜在需求 (Latent Demand) * 观察用户的“滥用”行为:借鉴 Facebook Marketplace 的经验,Boris 提出要观察用户如何以非设计初衷的方式使用产品。 * Claude Code 的起源:最初只是一个终端黑客工具,因为观察到用户即使在非编程场景(如分析基因组、修复硬盘)也愿意在终端里使用它,从而推动了 Co-work 的开发。 * 为未来的模型设计:开发者不应针对当前模型的局限性做过度封装(Scaffolding),而应预判 6 个月后更强大模型的垂直能力。 4. AI 安全与“赛跑向顶端” * 三层安全架构:Anthropic 通过对齐与机械解释性(观察神经元活动)、离线评估(实验室测试)以及野外观察(早期发布研究预览版以监测真实行为)来确保安全。 * 透明度:Anthropic 倾向于开源安全工具(如沙盒环境),并发布研究结果,以激励整个行业进行更安全的竞争。 -------------------------------------------------------------------------------- 给开发者的建议 * 成为通用主义者 (Generalist):未来最稀缺的人才将是跨学科的,例如具备设计感的乘法工程师,或懂业务的架构师。 * 大方地使用 Token:企业不应在初期为了省钱而限制工程师使用 Token,因为创新的价值远高于 Token 的成本。 * 使用“计划模式” (Plan Mode):在执行任务前先让 Claude 生成计划并由人工确认,这能极大地提高准确率。
矩阵与魔法:拆解 ChatGPT 背后的 Transformer 引擎【本期简介】 为什么 ChatGPT 能够像人类一样交流?它真的理解我们说的话吗,还是仅仅是一个极其高明的“填字游戏”玩家? 在本期节目中,我们将带你深入 AI 高速发展的核心创新——Transformer 神经网络。我们将剥开“生成式预训练 Transformer”(GPT)的层层外壳,从最基础的“预测下一个词”逻辑开始,聊到那些由 1750 亿个参数构成的巨型矩阵。无论你是科技爱好者,还是对人工智能感到好奇的普通听众,这封关于 Transformer 的“视觉说明书”都将为你揭开现代 AI 的神秘面纱。 【时间轴与核心内容】 * 01:30 什么是 GPT?解析“生成式”(Generative)、“预训练”(Pre-trained)与“Transformer”的定义。 Transformer 最初是 Google 在 2017 年为翻译任务设计的,但它改变了后来的一切。 * 05:20 “预测下一个词”的艺术 AI 如何通过概率分布来决定接下来的文本片段。 为什么规模(Scale)是魔法的关键:从逻辑混乱的 GPT-2 到对答如流的 GPT-3。 * 12:45 数据流的第一站:词元(Tokens)与嵌入(Embeddings)输入内容如何被拆解成 Token(单词或字符组合)。 词嵌入: 将单词转化为高维空间中的坐标(向量)。在 GPT-3 中,这个空间的维度高达 12,288 维。 有趣的向量数学:为什么“德国 - 日本 + 寿司 = 德国香肠”?。 * 22:15 Transformer 的心脏:注意力模块(Attention)向量之间是如何相互“交流”并根据上下文更新含义的。 解决歧义:如何区分“机器学习模型”中的 model 和“时尚模特”中的 model。 * 30:50 多层感知机(MLP):对向量发起“提问”在注意力块之后,向量如何并行经历同一套处理程序。 本质上,这就是海量的矩阵乘法运算。 * 40:00 1750 亿个参数意味着什么?区分“权重”(模型的大脑)与“正在处理的数据”。 GPT-3 的参数分布在约 28,000 个不同的矩阵中。 * 50:15 决定“创造力”的开关:Softmax 与温度(Temperature)如何将矩阵计算的结果转化为概率分布。 温度调节: 为什么调高温度会让 AI 变得更有趣,但也可能让它胡言乱语?。 【本期关键术语】 * Transformer: 当今 AI 高速发展的核心神经网络架构。 * 点积(Dot Product): 几何上衡量两个向量对齐程度(相似度)的方法。 * 上下文窗口(Context Size): 模型一次能处理的文本量上限。 * Logits: 未经过标准化的原始预测输出值。 【延伸阅读/参考资料】 * 本期内容参考自 3Blue1Brown 关于 Transformer 的深度科普视频
AI 进化论:从“被取代”到“1% 的领跑者”本期简介: 你是否感到 AI 浪潮来势汹汹,担心自己已经掉队?事实上,大多数人仍不清楚如何有效地使用 AI。在本期节目中,我们将深入解析 Dan Martell 的 AI 学习路径,带你拆解 AI 的底层逻辑,并教你如何通过精准提问(Prompting)进阶策略,在短短 20分钟内超越 99% 的用户。 本期精彩看点: * 02:00 AI 并不是魔法: 理解 AI 背后基于“令牌预测”的数学逻辑,它本质上是穿了西装的“模式识别”。 * 05:15 提示词的四大支柱: 为什么大多数人的提问像在发简讯?学会 角色 (Role)、背景 (Context)、指令 (Command) 和格式 (Format) 的黄金组合,让输出质量发生质变。 * 08:30 深度掌握单一工具: 为什么你应该在 Claude、Gemini 或 ChatGPT 中选择一个深耕,而不是频繁切换?大师总是先求深度再求广度。 * 12:10 从“推”到“拉”的高阶转变: 告别告诉 AI 怎么做(Pushing),学会给出目标让 AI 引导你(Pulling)。通过“GPS 式”提问,让 AI 主动向你索取信息并解决问题。 * 15:45 打造你的“大师提示词”与“系统提示词”: 如何通过个性化的大师提示词 (Master Prompt) 让 AI 变成你的分身,并利用系统提示词 (System Prompt) 构建可重复使用的自动化机器。 * 18:30 你的未来防线: AI 无法取代的三个核心能力——品味 (Taste)、远见 (Vision) 与关怀 (Care)。 核心金句: * “输出的质量永远不会超过你提示词输入的质量。” * “10 分钟的行动胜过 10 小时的教程。” * “如果 AI 听起来像个陌生人,那是因为你还没介绍你自己。” 行动建议: 今天就挑选一个日常任务交给 AI 处理,哪怕只是移动信息,从 10 分钟的行动开始。
别只把 AI 当搜索工具!教你如何用 AI 开启职业生涯的“第二曲线”【本期播客简介】 AI 时代不再有“个人贡献者”,只有“AI 代理的指挥家”。 我们正处于一场巨大技术浪潮的开端,领英(LinkedIn)创始人、硅谷传奇投资人 Reid Hoffman 预言:目前的 AI 变革只完成了不到 5%,而普通人仅剩下约 2 年 的时间来完成职业模式的适配。 在本期节目中,Reid 将深度拆解他如何利用 AI 思考、创作甚至“指挥”一支虚拟团队。更重要的是,他为那些拿着固定薪水的职场人提供了一套清晰的**“收入翻倍计划”**:如何通过掌握 AI 工具,从一名单纯的“执行者”进化为企业争抢的“AI 转型专家”。 如果你觉得使用 ChatGPT 只是聊天和搜索,那么你还没有开始真正“严肃”地对待 AI。 【本期核心内容】 * 05:30 — 为什么现在是“翻倍收入”的黄金窗口? 企业对 AI 转型人才的需求巨大,不仅是研发,更包括营销、供应链和财务分析的 AI 应用。 * 12:15 — 从“演奏者”到“指挥家”:职业底层逻辑的重构。 未来的精英不再是亲自写代码或写方案的人,而是管理 20 个 AI 代理进行交叉检查和演进的管理者。 * 18:40 — 实战技巧:如何让 AI 为你写出“两页纸”的顶级提示词? 放弃简单的短对话,学会使用“语音建模(Voice Build)”,并要求 AI 成为你的“提示词架构师”。 * 25:50 — 如何在 AI 生成的内容海洋中建立竞争壁垒? 当内容像“电梯音乐”一样泛滥时,为什么“个人品牌”和“信任”才是你最值钱的资产?。 * 32:10 — 建立“AI 反射神经”:改变你 2026 年命运的习惯。 在进行任何困难谈话、策划度假或写分析报告前,先问 AI 一个问题。 【本期金句摘录】 1. “未来的职场将不再有单纯的‘个人贡献者’,我们每个人都将部署一套 AI 代理来完成工作。” 2. “即使是那些说自己‘正在使用 AI’的人,绝大多数也并没有严肃地对待它。” 3. “人类 + AI 的组合,在未来很长一段时间内都将远优于纯粹的 AI。” 4. “你不需要成为 AI 研究员,你只需要成为那个能帮企业利用 AI 跑得更快的人。” 【关键行动清单】 * 初级(建立反射): 在日常任务中深度互动。尝试用语音输入你的复杂想法,并要求 AI 帮你生成更专业的调研提示词。 * 中级(分配角色): 给 AI 设定特定立场(如风险投资人、政府官员、反对者),从多维度审视你的决策。 * 高级(元分析): 让不同的 AI 代理互相对话,分析业务中的“贯穿线(Through lines)”,从而推导出下个月的创新方案。
如何在30天内通过“减少干扰”来改变生活?本集概括了丹·马特尔(Dan Martell)提出的三十天人生变革计划,旨在通过高效的行为准则帮助个人脱颖而出。该策略的核心在于精简目标,要求人们在专注于单一核心成果的同时,培养两项关键习惯并剔除干扰。 作者强调利用**“隔离赛季”进行高强度冲刺,通过早起处理深层工作、设置每日不可逾越的身心及业务规范来建立优势。此外,文章呼吁读者停止为平庸找借口**,主动清理浪费时间的诱因,并通过记录与分享微小进展来重塑个人身份认同。 这种方法论不仅追求效率的提升,更鼓励人们通过即刻采取行动和向他人提供价值,最终实现长久的成就感与自我跨越。
Antigravity | 从概念编码到可用于生产环境的应用Google AI Studio 推出的升级版 “氛围编程” (vibe coding) 体验,通过集成的 Antigravity 编码智能体,实现了从创意原型到生产级应用的快速跨越。 该系统整合了 Firebase 数据库与认证服务,支持开发者通过自然语言指令轻松构建具备多玩家实时协作、持久化存储及安全登录功能的完整软件。借助对 Next.js 等现代框架的支持与自动化的第三方库管理,即便是复杂的全栈项目也能在无需离开开发环境的情况下,从纯粹的构思转化为可实际运行的数字化工具。
AI将如何重塑职业身份与生活意义的6个维度?本集探讨了在AI即将在未来二至五年内取代50%白领工作的背景下,人类如何重新寻找生存意义与竞争优势。 原作者指出,随着编程等技术性硬技能逐渐贬值,社会将分化为拥有自主目标的主权个人和依赖救济的被动群体。为了在自动化浪潮中立足,个人必须从追逐工具性知识转向培养个人代理感 、审美见识、决策判断力及跨领域整合能力这四大核心特质。 全文旨在警示读者,唯有通过自我驱动的奋斗与价值输出,才能在机器接管劳动的时代,构建出无法被算法模拟的独特身份与生命价值。
人类的品味、远见与关怀才是未来业务中不可替代的竞争核心本集拆解了Dan Martell 最新视频《 Laziest Way to Make Money With AI (Zero Code)》 作者提出了从“执行者”向“调度者”转变的思维,通过 AI 完成潜在客户挖掘、个性化外销及成果交付等核心环节。文中强调,这种系统化流程能极大提升效率,甚至可以自动化生成定制化的品牌提案与报告。 尽管 AI 承担了大部分任务,但作者认为人类的品味、远见与关怀才是业务中不可替代的竞争核心。最后,作者鼓励创业者停止重复性工作,学会利用 AI 释放时间以专注于更高价值的战略决策。
别把大脑外包给AI | 6种现代职场浮世绘本集基于 Anthropic 研究员发表的论文《How AI Impacts Skill Formation》。 我们讨论了一个很多程序员都在回避的问题:如果AI可以帮我们写代码,我们还会不会真正学会编程? 研究发现,AI可以明显提高短期效率,但可能削弱长期能力,比如代码理解、调试能力和独立解决问题的能力。这种现象被称为“认知卸载”——当工具替我们思考,我们的大脑就不再建立完整的知识结构。 但论文也指出,关键不在于用不用AI,而在于怎么用AI。 如果把AI当答案生成器,你可能会变弱; 如果把AI当解释器和老师,你可能会学得更快。 这一集我们想讨论的不是AI能不能写代码,而是: 在AI时代,学习本身会不会改变。
硅谷的“灵气”对决中国的“工程量”:为什么 Claude Code 让你觉得更好用?【本期简介】 作为开发者,你是否也有这种感觉:虽然 DeepSeek 在各项榜单上频频霸榜,但在实际写代码、重构复杂项目时,Claude Code 或 Gemini CLI 总能带给你一种“它懂我”的丝滑感?这种“体感差异”究竟是心理作用,还是底层技术栈与产品哲学的分水岭? 本期播客,我们将拆解中美 AI 编程工具的“代理性”差异、硬件限制下的算法选择,以及“Vibe Coding(氛围编程)”与“确定性执行”之间的文化碰撞。这不只是一场工具测评,更是一场关于 AI 时代软件工程未来的深度辩论。 【时间轴与核心话题】 02:15 - 范式转移:从“建议者”到“执行代理(Agentic)” * 为什么 Claude Code 的命令行操作比 IDE 插件更具生产力? * “喂养式编程”与“委派式编程”:谁在减少你的认知负荷? * 深度解析:Claude 的“自主执行”如何消灭“反复确认”的烦恼。 15:40 - 协议之争:MCP 协议是 AI 时代的“USB-C”吗? * Model Context Protocol (MCP) 带来的生态红利。 * 如何让 AI 直接读取你的数据库、Slack 和设计文档? * 中国大模型在垂直领域集成上的优势与封闭生态的隐忧。 28:20 - 工程审美:为什么 Claude 写出的代码像“资深架构师”? * SWE-bench 榜单背后:解决真实 GitHub 问题的“直觉”从何而来? * 深度对比:Claude 的面向对象设计 vs. DeepSeek 的实用主义逻辑。 * 为什么数学好、刷题猛的模型,在处理“屎山代码”时会显得死板? 42:10 - 硬件阴影:H200 与 H20 之间的延迟沟壑 * 算力禁令对大模型“长程推理”能力的物理限制。 * 推理带宽如何决定了你与 AI 对话时的响应“灵敏度”。 * 中国模型如何通过 MoE 架构(混合专家模型)实现“穷人家的孩子早当家”。 55:30 - 终极辩论:Vibe Coding 还是 工业化合规? * 硅谷推崇的“Vibe Coding”:自然语言即代码。 * 中国企业的策略:安全可控、审计追踪与执行密度。 * 开源(Qwen/DeepSeek)与闭源(Claude/o1)的商业路线博弈。 【本期金句】 * “好的 AI 助手不应该只是在旁边低声建议,它应该拿起扳手直接进场。” * “Claude 赢在它的‘工程审美’,它预见到了你的代码在半年后会如何扩展。” * “如果说美国工具是灵动的跑车,那中国模型更像是一辆重型装甲车,在既定轨道上无坚不摧。” 【相关术语参考】 * MCP (Model Context Protocol): 跨工具连接 AI 代理的通用标准。 * SWE-bench: 衡量 AI 解决真实软件工程问题能力的基准测试。 * Agentic Workflow: AI 能够自主规划、执行并自我纠错的工作流。 * Vibe Coding: 强调通过人类意图和直觉快速迭代应用的新型开发模式。 订阅与互动:如果你在开发中也有“体感不一致”的经历,欢迎在评论区分享你的 Case。你更愿意为“高认知溢价”的 Claude 付费,还是拥抱高性价比的 DeepSeek?
人工智能恐慌与宏观行动时代 | Andrej Karpathy最新访谈这份出自昨日最新的访谈,记录了技术专家 Andrej Karpathy 对 AI 代理、自动研究及工程未来的深刻见解。 他指出,随着 AI 能力在去年底实现质变,传统的代码编写已进化为向 代理(Agents) 传达意图的宏观管理模式。Karpathy 通过自建的“Dobby”系统展示了 AI 如何通过 API 直接接管并简化物理世界的复杂软件交互。 在科研领域,他提倡通过 自动研究(AutoResearch) 消除人类瓶颈,实现模型的递归自我改进。尽管当前 AI 仍存在表现不稳的“锯齿状”局限,但他预见未来将出现更多专业化的智能体。最后,他强调了开源生态对制衡中心化权力的重要性,并认为教育将转型为由 AI 代理主导的个性化知识传递。
黄仁勋2026年GTC演讲解读:智能体时代与计算范式变革本集详细阐述了 NVIDIA 在 2026年 GTC 大会上发布的战略蓝图,重点在于从芯片制造转型为人工智能工厂的领导者。 首席执行官黄仁勋介绍了全新的 Vera Rubin 架构及其与 Grock 技术的整合,旨在通过极高性能的推理能力大幅降低Token成本。文中强调了 CUDA 生态系统的长期影响力,并推出了 Nemo Claw 等开源代理框架,旨在推动企业级 AI 智能体的普及。 此外,NVIDIA 展示了在物理 AI 与机器人领域的巨大进展,利用数字孪生平台 Omniverse 加速工业自动化。整个报告展示了一个由加速计算驱动的未来,涵盖了从数据处理到主权 AI 模型的全栈创新。
为何“提示工程”将过时,未来的高价值 AI 核心能力是什么?本集探讨了人工智能技能的未来趋势,指出传统的“提示词工程”将很快过时。 行业正从简单的工具使用转向自主系统架构,并提出了一个分为四个等级的职业技能金字塔。通过对比,低端技能的收入将大幅缩水,而能够设计原生AI业务的人才将获得极高的经济回报。 该资料旨在引导读者超越表层的操作技巧,转而掌握能够应对自动化生态系统深度变革的核心能力。这种转变要求从业者从被动的任务执行者进化为复杂的系统架构师。