📝 本期播客简介
本期节目我们翻译了著名访谈播客《Lex Fridman Podcast》。主持人 Lex Fridman 邀请了两位 AI 领域的顶尖研究者与教育家——艾伦人工智能研究所(Ai2)后训练负责人 Nathan Lambert,以及《从零开始构建大语言模型》的作者 Sebastian Raschka。这场长达四小时的深度对话,全面剖析了 2026 年人工智能的最新版图。从 DeepSeek R1 引发的全球震荡,到中美 AI 巨头的算力博弈;从 Scaling Laws 是否失效的争议,到推理模型(Reasoning Models)如何改变编程与科研的范式。您将听到专家们对 GPT-5、Claude 4.5、Gemini 3 以及国产开源模型实战表现的硬核点评,并深入理解预训练、后训练与推理时计算(Inference-time Compute)背后的技术逻辑。这不仅是一场技术趋势的预判,更是一份理解 AI 时代底层演进的权威指南。
⚙️ 本期嘉宾
Nathan Lambert:艾伦人工智能研究所(Ai2)后训练负责人,RLHF(基于人类反馈的强化学习)领域的权威专家,著有《The RLHF Book》。
Sebastian Raschka:著名机器学习研究员、工程师,著有《从零开始构建大语言模型》及《从零开始构建推理模型》,致力于 AI 技术的普及与教育。
🌟 精彩内容
🇨🇳 “DeepSeek 时刻”:国产开源模型的全球突围
DeepSeek R1 的发布被视为 AI 领域的里程碑。嘉宾们探讨了中国公司如何通过更高效的架构(如 MLA 潜在注意力机制)和更低的算力成本,实现了比肩甚至超越美国顶尖闭源模型的性能。这标志着 AI 竞赛从单纯的“堆算力”转向了更精巧的架构创新。
📈 Scaling Laws 还在起作用吗?
尽管有传言称预训练的收益正在递减,但嘉宾们依然看好扩展定律。除了传统的预训练规模,现在的重心已转向“推理时缩放”(Inference-time Scaling)——即让模型在回答前进行更长时间的“思考”。这种范式转移正在解锁 AI 在复杂数学、编程和逻辑推理上的新高度。
💻 AI 编程的进化:从辅助到代理
对话深入探讨了 Cursor、Claude Code 等工具如何改变开发者工作流。Sebastian 分享了他在紧急时刻利用 AI 瞬间生成 Bash 脚本的经历。专家们认为,未来的编程将更多是“用英语编程”,开发者将从微观的代码编写者转变为宏观的系统架构师。
🤖 AGI 的时间线与终局
面对动辄数千亿美金的算力投入,AGI(通用人工智能)是否只是一个昂贵的幻梦?嘉宾们讨论了 AI 商业化的路径、硅谷的泡沫现状,以及 AI 代理(Agents)如何在 2026 年真正进入生产力环节,解决现实世界中的复杂任务。
🌐 播客信息补充
翻译克隆自:#490 – State of AI in 2026: LLMs, Coding, Scaling Laws, China, Agents, GPUs, AGI
本播客由 AI 进行音频制作,你可以在 Bayt 播客上收听任何播客的中文翻译,并查看双语字幕。
人工智能, DeepSeek, Scaling Laws, LLM, AGI, Transformer, RLHF, 推理模型, 中美AI竞赛, 开源模型, 编程AI, GPU, 算力, AI代理, Lex Fridman
