117. 开源一段论文探索之旅:模型范式、Infra和数据、语言、多模态的完整变迁史张小珺Jùn|商业访谈录

117. 开源一段论文探索之旅:模型范式、Infra和数据、语言、多模态的完整变迁史

263分钟 ·
播放数42632
·
评论数129

今天的嘉宾是谢青池,他是美团光年之外的产品负责人。

一个月前,青池找到我,说他用了一年多的时间一篇一篇地啃完了200多篇AI论文,从开始全然不得要领,到后来逐渐地入门——而他希望将他的论文探索之旅开源给大家。

就这样,我们有了今天这集特别的节目。

他从200多篇论文中精选了36篇经典,4小时讲解,带你穿越AI变迁史。

他说,读论文是“给你打开一扇门”,让你能直接“与这个世界最聪明的头脑对话”。

2025年,期待我们和AI共同进步!

01:30 探索的缘起

07:25 怎么读论文?(用AI学AI)

10:20 辅助小工具和路书

论文讲解的主干:

19:35 Part 1:模型的范式变迁

故事要从1999年的第一颗GPU开始讲起

Brook: 用GPU进行计算 (2004.08)

AlexNet: 深度学习的开端(2012.10)

对序列建模:seq2seq和Attention的引入(2014.09)

蒸馏:模型能被学习吗?(2015.03)

ResNet: 比深更深(2015.12)

Transformer来了!拉开一个时代的序幕(2017.06)

AlphaGo Zero: 强化学习的突破(2017.10)

现代MoE的开端(2017.01)

CoT: Prompt Engineering的奠基之作(2022.01)

LoRA: 那个我们每天都在用的东西(2021.06)

ReAct: Agent从理论到落地(2022.10)

The Bitter Lesson: 过去70年的教训(2018.08)

01:52:58 Part 2:Infra与数据的变迁

ZeRO: 大规模的GPU并行计算(2019.10)

Scaling Law & Chinchilla: 上帝的指挥棒(2020.01 2022.03)

LAION-5B: 开源社区的英雄主义(2022.10)

The RefinedWeb: 互联网的数据也很够用(2023.06)

MegaScale: 万卡GPU集群的训练(2024.02)

02:21:29 Part 3:语言模型的发展

Word2Vec: 用机器学习将单词向量化(2013.01)

Google Translate: 神经网络的大规模线上部署(2016.09)

GPT-1,它来了(2018.06)

BERT: 曾经的王(2018.10)

GPT-2: 是时候告别微调了(2019.02)

GPT-3: ChatGPT来临前夜(2020.05)

InstructGPT: 给LLM以文明(2022.03)

Tulu 3: 后训练的开源(2024.11)

03:08:08 Part 4:多模态模型的发展

DeepVideo: 深度学习进入视频领域,Andrej 初出茅庐(2014.06)

双流网络: Karén和学术重镇牛津登场(2014.06)

图像生成的序章: GAN来了(2014.06)

Diffusion: 在GAN的阴影下,悄然成长(2015.03)

DDPM: Diffusion重回图像舞台的中央(2020.06)

ViT: 当图像遇到Transformer(2020.10)

CLIP: 文生图的奠基石(2021.03)

Stable Diffusion,它来了(2021.12)

DiT: 人们期待一个融合的未来(2022.12)

03:56:38 最后的聊天

架构抱住了硬件的大腿

今天技术的边界到达了哪?

给“站在AI世界门外张望的人”和“已经在体系中工作多年的人”的建议

【技术之美】系列:

逐句讲解DeepSeek-R1、Kimi K1.5、OpenAI o1技术报告——“最优美的算法最干净”

逐篇讲解DeepSeek关键9篇论文及创新点——“勇敢者的游戏”

逐篇讲解DeepSeek、Kimi、MiniMax注意力机制新论文——“硬件上的暴力美学”

逐篇讲解机器人基座模型和VLA经典论文——“人就是最智能的VLA”

逐段讲解Kimi K2报告并对照ChatGPT Agent、Qwen3-Coder等:“系统工程的力量”

【更多信息】

本集的投屏视频版已经同步发布于Bilibili(张小珺商业访谈录):www.bilibili.com

50页完整PPT开源地址(所有论文链接附在PPT上):w7py8ou4dk.feishu.cn

展开Show Notes
猫猫不哭
猫猫不哭
2025.11.04
15:48 视频:
1. 吴文达-机器学习和AI
2. 李宏毅-生成式AI时代下的机器学习(2025版本)b站有
3. 油管:Andrej Karpathy
4. b站up主-李沐:论文精读系列
5. b站up主-3 blue 1 brown:可视化科普视频
6. b站up主-zomi酱:AI infra
7. b站up主-王木头学科学
书:
1. 一站式LLM底层技术原理入门指南(飞书文档)
2. 动手学深度学习(开源,李沐有配套的讲解视频)
3. 深度学习中的数学(简单介绍概率论)
Ozzz
Ozzz
2025.10.29
已经讲得很好了,尤其是把这个编年史梳理出来,对于我们这种非行业内的了解整个业界的发展很有帮助。不过同时也能感觉出来这种形式比较尴尬的一点是,对于懂的人来说比较浅,但是对于之前没接触过领域相关的知识的人来说又太深了。很多技术名词突然就出现了,也没有解释(当然也不可能仅仅通过几分钟音频能解释清楚),之前不了解这个相关知识的话是很难follow上这个内容的。嘉宾开始推荐的资料都很不错。同样超级推荐Andrej Karpathy在油管的zero to hero系列
xstarcity:这篇是最近刷到的最宝藏的播客了👍
庄明浩
庄明浩
2025.10.28
带PPT的播客越来越多了 🐶
张小珺
张小珺
2025.10.29
获取完整ppt的链接:https://w7py8ou4dk.feishu.cn/wiki/KacewdlmSiSGC9kUOKDch9gwnKf
张小珺
:
论文在ppt每篇讲解的右上方link,点击获取
张小珺
张小珺
2025.10.28
期待和你一起读论文,领略科技平权,感受技术之美,做你的赛博组会~ (•̀ᴗ•́)و ̑̑
yysy,他不是光年的产品负责人
HD792949z:Ber,是不是欺负美团的牛马没时间上网?建议增加嘉宾简历背调环节~
o1xhack:看他的 linkedin 写的 23 年开始是光年之外的产品负责人,你的消息来源又是?意思是他 linkedin 造假,个人介绍造假?
12条回复
RayHu
RayHu
2025.10.28
听完了第一部分,非常巧,最近在做一个 AI 领域智识性强的文章合集的(AI)播客版(包括论文,但如播客中所说更多是表达相对没那么多数学、但思想深刻影响了范式的论文),开篇就是苦涩的教训,最新一期更到姚顺雨的 ReAct,也包括了播客中提到的硬件彩票。感兴趣的朋友可以瞅瞅👀 《AI智识录》
Joes东
Joes东
2025.10.29
这篇播客可以预定为年度最佳关于AI的播客了吧
sosick:额•ᴗ•💧
Mint1:咋了
偶尔有光
偶尔有光
2025.11.02
口水声太大了
怎么咽口水声音这么大,醉了
天方夜谭_ik80:喝水声音吧 讲这么久口干舌燥 不可能不喝水
HD889449z:是我也想说,口水音噼里啪啦的好重啊,听到好难受。
3条回复
这时长,够硬核!越来越向老罗看齐了 哈哈哈哈
骑猪环球旅行:小珺的长播客比老罗早
tienchiu
tienchiu
2025.10.31
这期内容胜在嘉宾的分享思路!通过串历史背景脉络来讲论文框架。之前几期讲具体论文的嘉宾,也有的会讲论文背景和演进历史,这些why往往是读论文时理解what及how具有极其重要的意义。
jhwei
jhwei
2025.10.31
1:40:02 先说是不是,再说为什么。美国也有不写代码的manager,国内也有很多写一线代码的老板。
嘉宾确实讲的比较通俗,也比较全面,但是不够严谨,存在很多错误归因,比如上面提到的管理层写代码问题。如果对相关的内容了解不清楚的初学者,很容易会留下错误的印象。
比如后面,schuhman其实是被openai的dall-e震撼到才有了做开源数据集laion的想法,而不是因为clip。clip是开源了权重,而dall-e是连权重都没有开源
程辉_IYHM
程辉_IYHM
2025.10.30
2:41:51 BERT和GPT都是基于Transformer构建的,标准的Transformer是encoder-decoder架构,但BERT是encoder only的模型,GPT是decoder only的模型
jasonfoo:老哥开头不是说看过李沐精度视频两三遍么…感觉他自己ppt里把论文作者八卦部分改成架构图也不至于犯这种错误
HD821303l:能不能走好心专业人士把明显的错误列一下,感谢
3条回复
LEO老狮
LEO老狮
2025.10.29
這位嘉賓建議可以常駐,每次講某個方面的問題講透。
如果李飞飞自传出的早,你不就用这么费劲了
Ding_6wSy
Ding_6wSy
2025.11.05
质量好高,听了好多遍
可以提个小建议吗,这个 bgm 有点奇怪🤔考虑换一个试试吗
rexzhang
rexzhang
2025.11.02
谢青池是想要了解大模型的人的榜样,推荐!
Deemo2026
Deemo2026
2025.10.30
最近一年也看了100多篇论文,听了这一期仿佛又再读了一遍。感谢小珺和青池