

Vol. 02|Reaction:WhynotTV访谈OpenAI翁家翌🎙️ AI纪元背后,构建者们(builders)是何方大佬呢? 本期节目,让我们回顾WhynotTV对翁家翌的访谈。从清华姚班,到CMU,再到OpenAI后训练(Post-training)团队的核心成员,他是模型智能的重要塑造者,更是一个深谙“卖铲子”哲学的影响力制造者。 让我们走进他的世界,看一个在初高中就闯荡数学和信息学竞赛的少年,不断“投资未来的自己”,一步步走入世界AI风暴中心。他聊到“教一个 Researcher 做工程,比教 Engineer 做研究难得多”的论断,以及在OpenAI极高的人才密度中所看到的发展逻辑。最后,我们还会触及他的决定论哲学--在一切都是确定的剧本里,他为什么依然选择做一个“幸福的西西弗斯”? ------------------------ ⏳ 时间轴: 00:30|“投资未来”的少年时期:奥数,信息学竞赛(NOI) 01:48|在清华姚班的 “信息平权”,评价体系的重构:“论文、比赛、GitHub Stars” 03:44|为什么是 OpenAI 而不是读博? 06:09|“卖铲子”的工程品味与 GPT-3.5/4 有趣小细节 09:15|为什么 OpenAI 能成功?信息在组织内实现无损的双向流动 10:21|谁会先被替代?研究院,infra构建者,还是sales销售? 11:12|幸福的西西弗斯 12:17|私货时间:我的信息学经历,人生的目标函数,科学的品味 ------------------------ 💡 本期核心洞察 1. 工程与科研哲学:“Engineering 是 Research 的底座” 在工业界实验室,核心竞争力在于 infra(基础设施)在单位时间内的迭代次数(例如一周迭代300次与30次的巨大差距)。 2. 评价体系:跳出固有评价体系,自创“函数目标” 比如他到本科老师提出的评价标准:论文、比赛、GitHub Stars,就是一种跳出绩点(GPA)导向、更符合工业界和学术界真实价值的评价体系。 3. 对组织与 AI 未来的判断 * OpenAI 的成功逻辑:信息在组织内能无损地双向流动;核心管理层(如 Infra 负责人)对系统有极深了解,避免了大型公司常见的组织臃肿。 * 职业替代性:他认为在未来,研究员(Researcher)最容易被替代,因为想法(Idea)是可以被建模和批量生产的;其次是 Infra 工程师;最后才是销售,因为销售涉及人与人之间的说服逻辑。 ------------------------ Reference: 视频播客 WhynotTV(小宇宙、B站等平台) 翁家翌:OpenAI,GPT,强化学习,Infra,后训练,天授,tuixue,开源,CMU,清华|WhynotTV Podcast #4 ------------------------ “认知采样|低比特备忘录”是一档专注分享AI新知与心得,探讨自我认知的播客节目。比特虽低,认真采样每一段认知。欢迎评论和订阅!🎉
Vol. 01|回望Agent元年:2025年的那些AI工具我们也许很难想象,今天距离DeepSeek-R1模型的横空出世还不足1年。AI领域的发展是真真正正的日新月异。2025年被很多人称为Agent之年(year of agent),又被Andrej Karpathy纠正为Agent元年。作为OpenAI创始成员、特斯拉前自动驾驶负责人,Karpathy在2025年末发表了一篇长文回顾过去一年中AI工具的发展历程。 本期播客,我们将从这篇长文的几个论点出发,结合AI工具普通用户视角的体验与感受,聊一聊那些值得记住的里程碑。这是一场技术回顾,也许还可以成为思考如何与智能体协同生存的引子。 ------------------------ 00:00 技术路线的演进:从预训练(Pre-training)到有监督微调(Supervised Fine-Tuning)和人类反馈在环的强化学习(RLHF),再到基于客观验证奖励的强化学习(RLVR)的崛起 03:45 智能的本质:AI 是“灵魂”(Ghost)还是“动物”(Animal)?人脑与机脑不同的进化起点 05:20 2025年的热门工具Cursor的成功标志着“LLM App layer”的出现 07:30 命令行里的 AI 原生态:Claude Code CLI为什么比网页版 UI 更接近 AI 的终极形态? 08:45 氛围编程(Vibe Coding)时代:代码成本低到可以“用完即丢”? 11:00 谷歌Nano Banana:多模态交互的起点:从文本对话到白板、声音、图像的原生支持 12:30 个人心法分享:Nathan的2025年Github Copilot Agent实践案例 16:20 “我的模型额度不够用了!” 18:30 冰山下的AI脚手架:从基础模型(Cognitive Base Model),上下文管理(Context Systems),再到工作流架构(Workflow Structure)和提示词工程(Prompt Engineering) 20:15 结语与展望:谁是AI脚手架的搭建者? ------------------------ 提到的名词与术语 人物/机构:Andrej Karpathy, OpenAI, Tesla, Anthropic, Tesla, Google 技术概念:SFT (有监督微调), RLHF (人类反馈在环的强化学习), RLVR (基于可验证奖励的强化学习), Vibe Coding (氛围编程), 提示词工程(Prompt Engineering) 工具:Cursor, GitHub Copilot, Claude Code CLI, Nano Banana, NotebookLM ------------------------ 两种智能 AI脚手架 Reference: 2025 LLM Year in Review | Andrej Karpathy Building a Personal AI Infrastructure (PAI) | Daniel Miessler ------------------------ “认知采样|低比特备忘录”是一档专注分享AI新知与心得,探讨自我认知的播客节目。比特虽低,认真采样每一段认知。欢迎评论和订阅!🎉