Meta前FAIR研究总监田渊栋被裁后信息分享全球AI新知 | 极干短播客

Meta前FAIR研究总监田渊栋被裁后信息分享

16分钟 ·
播放数3
·
评论数0

Meta前FAIR研究总监田渊栋访谈要点简报

执行摘要

本简报综合分析了对前FAIR研究总监及AI科学家田渊栋的深度访谈内容,核心围绕其在Meta裁员后的个人思考、对AI技术路线的深刻见解,以及对行业未来的展望。关键要点如下:

1. 裁员是行业趋势的体现:田渊栋认为,Meta的AI部门裁员并非孤立事件,而是AI高度自动化趋势下的必然结果。随着模型和工具的成熟,执行层和重复性劳动将大幅减少,未来“做AI”的人会变少,而“用AI做探索”的人会增多。

2. 对大语言模型(LLM)路线的审慎态度:他认为LLM是一条“有意思”但未必“正确”的路线。其核心问题是数据效率极低,人类用百亿级Token即可高效学习,而模型需数万亿Token,差距悬殊。他将此困境类比自动驾驶,即早期进展迅速,但后期因高质量数据和洞察的稀缺而瓶颈凸显。

3. “缩放法则”(Scaling Law)是悲观的未来:他批判性地指出,依赖指数级增加资源来换取线性性能提升的缩放法则是不可持续的,终将耗尽地球资源。业界应追求更高效的智能发展路径,而非满足于现有框架。

4. 强化学习(RL)的核心价值在于主动学习:他强调,强化学习的最大优势是通过主动搜索和探索,获取比监督学习(SFT)质量更高的训练数据,从而让模型学会真正的推理和泛化能力,而非仅仅记忆。

5. 人类顶尖洞察力不可替代:田渊栋认为,当前AI模型缺乏高层次的人类洞察力、知识和独到见解。AI永远是跟随人类专家的引领,在人类指明的方向上做得更好,而无法独立产生顶尖的原创性思想。

6. 理想的研究模式是“游击战”:他预见,未来理想化的前沿研究不会仅限于大型知名实验室,而是会以更灵活、分散的“游击战”形式存在于各大公司的小团队或初创公司中,由有理想的个体和组织持续推动。

7. 个人发展:追求科研品味与工程能力的结合:他在FAIR最大的收获是培养了“科研品味”(research taste),这使他能为自己规划长远道路。他反思应在工程上投入更多,并认为顶尖人才是兼具强大研究能力与工程能力的人。其未来目标是寻找能将前沿研究与自动化工程应用相结合的机会。

--------------------------------------------------------------------------------

1. 关于Meta裁员与行业趋势

访谈始于田渊栋被裁的个人经历,并由此延伸至对整个AI行业就业结构变化的宏观洞察。

1.1 个人情况与心态

• 早有预料:田渊栋表示,在裁员发生前他已获得其他公司的offer,并向上级表达过不满,因此对被裁并不惊讶。他在Meta已工作超过十年,认为这或许是一个“出来看看”的时机。

• 机会众多:被裁后不到一周,他收到了大量来自各大公司高层、小型公司以及联合创始的机会,目前仍在考虑和选择中。

• 裁员加速了个人选择:他将此次裁员视为一个加速器,促使他更快地做出了离开的决定。

1.2 行业宏观趋势:AI自动化与就业结构变化

田渊栋认为,此次裁员反映了AI行业的一个根本性趋势,即自动化将重塑劳动力结构。

• AI自动化程度最高:AI领域自身的自动化程度是最高的。随着模型能力增强和自动化工具的完善,过去需要大量人力的工作(如数据标注、模型on call维护)正在迅速减少。

• 就业结构将发生转变:

    ◦ 执行层岗位减少:遵循既定流程、从事重复性劳动的人员需求将下降。他指出:“做执行的那部分人……他们的工作比较重复的……重复性的劳动就会减少。”

    ◦ 探索层岗位增多:利用AI作为工具进行探索性研究、在垂直领域进行应用、或从事其他创造性工作的人会越来越多。

• 结论:“做AI的人可能会越来越少,但是用AI来做工具来探索其他东西的人会越来越多。”这个趋势最终可能导向一个“大家都没有传统意义上的工作”的未来。

2. 对AI技术路线的核心观点

田渊栋对当前主流的AI技术路线,特别是大语言模型(LLM)和缩放法则(Scaling Law),提出了深刻的批判性见解,并阐述了强化学习(RL)的独特价值。

2.1 大语言模型(LLM)的局限性

• 路线性质:他形容LLM是“一个很有意思的路线,但我不知道会不会是正确的路线。”

• 核心问题:数据效率低下:LLM最大的问题是需要海量数据。他对比指出:

    ◦ 人类学习:一生接触的文本Token数量最多在百亿级别。

    ◦ 模型训练:轻易达到10万亿甚至30万亿Token,与人类存在上千倍的效率差距。

    ◦ 引申问题:“这1000倍差距,你怎么样去用人类的学习能力去弥补?很难弥补。”

• 类比自动驾驶困境:他认为LLM的发展路径与自动驾驶相似:“一开始进展非常快,大家会觉得马上就能取代人了。但是越往后走,问题越大……是因为好的insight(洞察)、好的数据越来越少,越来越难找。”

2.2 对“缩放法则”(Scaling Law)的批判性思考

• 悲观的未来:他直接将Scaling Law定义为“一个悲观的未来”。

• 逻辑上的不可持续性:该法则的本质是“加指数级的样本进去,或者指数级的计算能力进去之后,我们的performance(表现)正在上升,然后上升的速度是线性的。”他认为这种依赖指数级资源消耗的模式,最终将耗尽地球的能源和电力。

• 追求更高效的智能:他强调,机器学习的真正追求应该是“什么样的模型能够在这条路线上走得更有效率、更高效、更快”,而不是满足于一个通向资源枯竭的法则。他甚至大胆推测,未来可能会出现比梯度下降更优的训练算法。

2.3 强化学习(RL)的独特价值

田渊栋作为该领域的长期研究者,对近期关于RL的争议做出了回应。

• 核心优势:主动学习与高质量数据:

    ◦ 他认为RL最大的好处是“它是主动学习的,它能对数据的分布产生很积极的影响。这是它最最核心的地方。”

    ◦ RL通过边搜索边采集数据的方式,获得的训练数据质量优于监督学习(SFT)被动喂养的数据。

• 推理与泛化能力:

    ◦ RL能让模型真正学会推理,而SFT可能导致模型仅仅记忆推理过程,泛化能力差。

    ◦ 他指出:“如果你做了大量的SFT,这个模型的质量就可能会下降。”

• 学习方式类比:他将SFT比作“去老师那边听课”,而RL则是“自己去玩,然后把问题解决了”,后者学到的能力更本质、解决问题的能力更强。

3. 开源与闭源的未来

田渊栋认为,开源与闭源路线并非简单的优劣之争,其选择取决于公司的商业策略和模型的最终目的。

3.1 开源的持续性与必要性

• 他坚信开源模式会继续存在,并列举了Reflection AI、Ai2等仍在坚持开源的公司。

• 开源对于构建社区、打造平台和工具集至关重要。“这个时候你开源是很说得通的。”

3.2 策略决定路线:应用场景是关键

• 不同场景,不同策略:

    ◦ 平台型/工具型模型:适合开源,以吸引用户和开发者,建立生态。

    ◦ 个性化服务模型:如个性化搜索或推荐,这类模型“不太愿意开源”。

• SOTA模型与垂类模型的分化:

    ◦ 在最前沿的SOTA模型上,开源模型可能难以直接与闭源模型竞争。

    ◦ 但在众多细分的垂直领域,开源模型存在大量机会。

• 核心问题:“接下来的问题就是说这些模型有什么用,是更大的问题。”最终模型的价值在于其应用,而非其本身是开源还是闭源。

4. AI的边界与人类的角色

他强调,尽管AI能力强大,但其与人类智能之间仍存在本质鸿沟,尤其是在高层次的洞察力方面。

4.1 人类洞察力(Human Insight)的不可替代性

• AI的短板:当前模型普遍缺乏“高层的human insights(人类洞察力)、human knowledge(人类知识)和对这个问题的独到见解。”

• 人机协作模式:他以自己与GPT-5合作发表论文的经历为例,说明若没有研究员的领域知识和深刻理解来指导和修正,AI的规划和产出将是平庸和缺乏创新性的。

• AI跟随人类:“AI就只能永远是跟着人后面走了。人通过某种比较好的信息处理的方式获得一些洞察,然后灌给计算机、灌给AI,让AI在这个方向上去做得更好。”

• 数据获取能力的差异:人类可以从极少量样本中洞察本质,而模型需要成百上千的样本,当数据稀缺时,人类优势凸显。

4.2 通往通用人工智能(AGI)的漫长道路

• 他赞同Andrej Karpathy的观点,认为AGI的实现是“以十年为尺度的时代”,而非短期内可以达成。

• 一个不具备顶尖洞察力的模型,不能被称为AGI。

5. 在FAIR的经历与反思

田渊栋回顾了他在FAIR的工作,分享了其主要研究贡献、遗憾与最大收获。

5.1 主要研究贡献

在被调去支援Llama 4项目之前,他专注于推理(Reasoning),特别是**思维链(Chain of Thought)**的研究。

• 长思维链对Scaling Law的影响:他的团队发现,使用非常长的思维链进行训练,可以显著改善模型的Scaling Law,用十分之一的样本和参数就能达到更好的效果。

• 代表性工作:

    ◦ 连续思维链(Coconut):提出在连续空间中进行隐空间推理,该文章受到广泛关注。

    ◦ Dualformer:较早提出混合长短思维进行训练的模型,这一理念现已成为行业标配。

5.2 遗憾与收获

• 遗憾:工程工作做得不够多:

    ◦ 早期在FAIR因作为研究科学家却“天天做工程”而受批评,导致他在2018年后更偏向研究。

    ◦ 他反思道:“现在你会发现,其实在现在这个时代,工程能力强的人反而更受欢迎……最好是工程能力和研究能力都强。”

• 最大收获:培养了“科研品味”(Research Taste):

    ◦ 2018年之后,他逐渐学会了如何做研究并形成了自己的品味。

    ◦ 他认为这至关重要:“如果有研究的品味的话,那意味着就是自己给自己设一条道路,可以一直往前走。其实这个对于一个人的人生来说,有非常好的好处。”

6. 对AI人才与研究环境的看法

他为AI领域的从业者提供了独特的职业发展建议,并对未来研究实验室的存在形式做出了预测。

6.1 对AI人才的建议:追随内心而非市场

• 警惕追逐热点:他指出,当前技术周期变化极快,“等到你想要学市场上火热的技术之后,全世界的人都在学”,很容易陷入被动跟随的局面。

• 回归个人兴趣:他建议:“与其听从市场的号令,还不如说我自己做自己想做的事情。”将个人兴趣与对未来价值的判断相结合,是更优的策略。

6.2 研究实验室的未来:理想主义的“游击战”

• 研究不会消失:他认为理想化的前沿研究会持续进行,但形式会更加多样化。

• 并非铁板一块:不应简单地认为大厂不能做研究、小厂可以做。研究机会存在于任何拥有资源、人才和自由空间的组织中。

• “游击战”形式:未来的研究将更像是一场“游击战”,由“很多有理想的人、有理想的小的组织,在继续做他们想做的事情”,而非仅仅依赖于少数几个知名的研究机构。

7. 个人未来规划

• 尚未决定:截至访谈时,田渊栋的下一步尚未确定。

• 理想目标:融合前沿研究与工程应用:他希望将两者结合起来,做一个既能“赋能我的科研研究”,其本身“也是能够做很多别的事情”的项目。

• 方法论:他主张先设立一个看似不可能实现的高目标,然后再反向思考如何实现它,这会带来更好的方向。他总结道:“你先想一个不可能实现的目标,然后再去想有什么东西可以去支撑。”