大卫翁对话复旦张奇教授:AI的2025和DeepSeek们的未来 | 周末会客听第一财经

大卫翁对话复旦张奇教授:AI的2025和DeepSeek们的未来 | 周末会客听

84分钟 ·
播放数25322
·
评论数39

2025年1月,国内大模型DeepSeek突然出圈。谁想到AI行业也是风水轮流转,去年sora没有让中国人过好年,今年轮到DeepSeek让美国股市暴跌了。不过与公众的狂热不同,复旦大学张奇教授却格外冷静:“它的底层逻辑依然是统计机器学习——喂数据、训练、输出结果。生成式AI的技术天花板就在那里,甚至因为它的‘深度思考’过程透明化,反而更让人看清它的本质——一个被训练出的智能模型,而非真正的‘智能体’。”

本期节目是和起朱楼宴宾客节目的串台,第一财经一财号大V、2024年度行业新锐、知名播客主理人大卫翁邀请一财号大V、2024年度行业新锐复旦大学教授张奇,来了一场关于AI未来的畅谈,AI的“银河帝国”还很远,但工具革命已到来。

本期,你将听到以下内容:

04:12 中文播客圈的AI节目缺少学界视角,希望这一期可以补上

应用Part1:

07:19 大卫翁和张教授最常用的AI应用

14:07 生成式AI的核心是场景,而不是通用或者垂直

底层Part:

18:01 大模型们会出现幻觉,以及无法回答常识问题的底层原因是什么?

22:37大模型最重要的有四个能力:长文本、跨语言、多任务和生成式

25:22但底层逻辑没有变,AGI用这套框架就遥不可及

29:04 所以普通人更好的使用生成式AI的方式是根据不同的场景使用不同的应用

应用Part2:

42:57 除了AI编程之外,2024年最印象深刻的行业进展还有视频生成…

47:02…以及chatgpto1、o3的范式切换

53:23 DeepSeek的横空出世,是中国AI行业的范式突破吗?

商业Part:

59:27 从四小龙,到六小虎,再到进击的巨头字节和阿里,AI公司的烧钱何时是个头?

66:40 2025年很可能是大量服务行业+AI后,行业格局洗牌的一年

71:39 AI搜索也是绝佳的新机会,但为什么传统搜索巨头做不好?

73:38 Agent会是2025年AI产业非常明确的突破点

76:34 AI行业的加速发展是从生成式AI开始的吗?还是之前就已经开始加速了?

77:46 再加速下去,最先下岗的会是AI研究员和算法工程师

本期主理人:

大卫翁 | 年度行业新锐 知名播客主理人

张奇 | 年度行业新锐 复旦大学计算机科学技术学院教授

串台收听:

vol.114.AI的2025和DeepSeek们的未来|对谈复旦张奇教授

周末会客听,让我们在对谈中感受魅力。还想听我们聊什么,欢迎评论区留言,喜欢我们的节目欢迎转发分享哦~

展开Show Notes
Ass嘟嘟
Ass嘟嘟
2025.2.08
「✅生成式AI」
核心是场景,而不是通用或者垂直。特别专注于某个场景的AI辅助工具反而更好用。
现在AI的能力边界是针对场景,整个AI发展是场景化驱动的。
AI应用:Chatgpt、沉浸式翻译、Podcastle.ai、Cursor、AI编程。

「✅训练数据」
专业问题上表现很好,但在一些很通用的常识类问题上反而会出错。底层原因是训练数据没有往里面放。
如果判定这个模型记住了这个知识点,需要60条训练数据。
模型的知识来源于预训练,所有的知识点全部靠预训练数据记住的。且有一些特定的规范,比如出现次数、一定特异性。
这个模型的训练数据决定了它能记住什么知识。
每个场景都需要特定的准备数据。

「✅大模型」
能力:长文本、跨语言、多任务和生成式。
所有自然语言处理的任务可以转换成一个语言的表达,即把所有的任务融合成了一个生成式的框架,但并不意味着不需要训练数据(底层逻辑)了。
预训练:大量的数据,知识记忆、学习。
后训练:能力来源全部来源于预训练数据。所谓的涌现,仅仅是预训练数据里在一些情况下让它反映出来了,但准确率达不到可用程度。如果想让这个任务做的很准确,一定要在后训练阶段放训练数据(有监督且精挑细选的)。先探测这个模型记住了哪些知识点;再针对记住的知识点再构造60套训练数据。要跟模型紧密匹配。

「✅使用」
利用垂类的AI工具,辅助现在的工作(场景化)。
把核心观点组织好,剩下的填充由AI完成。
大模型是基于深度学习,深度学习本质上是统计机器学习,统计机器学习的核心逻辑是针对一个场景,数据量越大学的越好。问题是学不到因果性,只能一个小场景一个小场景的去做,所依赖的是概率学。
大模型的底层依然是统计学而不是逻辑学的结果,就是我们需要一个AI行业的爱因斯坦把底层的架构从统计机器学习转换成新的范式(底层的数据工具支撑),才可能迎来真正的通用人工智能时代

「✅2024 - 行业进展」
1)视频生成
从时长、质量、图像上有非常大的进步。
2)chatgpt o1、o3的范式切换
加入了反思的过程。
3)DeepSeek横空出世

「✅AI公司」
预训练数据的成本量级非常贵,只有足够体量的公司,才敢这么做。后训练标注研究过程,更花钱。
估值不好做。
市销率10-20倍,对新质生产力的公司比较合适。
海外订阅制的商业模式,可能更好;中国订阅的习惯还没培养起来。

「✅行业格局」
2025年,传统行业,因AI的加持,原有的行业格局会发生较大变化。
第一,场景要适合它;第二,这个场景一定能带来非常大的体验感的不同。
小公司不用想,只有原来在客服领域的老大、老二、老三,谁先能做到最好的体验,就可以抢份额了。
比如客服行业。

「🔍AI搜索」
创业公司能进入的一定是一个创新型的产品。
大公司有自己天然的惯性,左右互搏的问题。
对百度来说,文心一言会抢百度搜索的份额。字节没有搜索品牌,肯定大量的上。

「✅AI行业」
1)Agent
是2025年AI产业非常明确的突破点。
一个做自我决策的智能体。有反思的机制,靠自我进行修正。
2)加速发展
原因主要是使用范围变广了。
再加速下去,最先下岗的会是AI研究员和算法工程师。
一线大厂的高端研究员的快速裁员很恐怖。工程架构的人是有技术积累的,不太敢动。算法研究员过去学的没有用了,现在全换成大模型了。
3)突破
生成模型跟之前没有特别大的变化,导致了极限在那里,如果想突破必须得在AI之外的地方,在数学或自然科学有突破,或者是两者互相影响带来突破之后,才可能从现在的这个阶段走向下一个阶段,而目前好像还没有看到这个迹象。
如果想做推理一定要限制在一个非常小的场景,而且你要有大量的训练数据。
4)百花齐放
虽然技术的天花板就在那里,但对于生成式AI浪潮来说,可能会看到百花齐放的AI应用。
银河帝国的时代还没有到来,但是让AI来帮助我们做很多事情的这个时代其实已经到来了。
在垂直场景上的深入,会是未来两年会看到很多变化的地方。
oo0ooooooO
oo0ooooooO
2025.2.08
有四个能力:长文本、跨语言、多任务和生成
Yang_2022
Yang_2022
2025.2.08
非常好!要是有个文本版就好了!
Ass嘟嘟:文字版https://mp.weixin.qq.com/s/_OipuQZGz5Bpz54yBnjzkQ
Yang_2022:谢谢!
还得是大卫翁的对谈啊,节奏提问都很舒服很易懂又切中重点。听之前没想到小白能又学到一些干货,两位都聊得好好
凌滚滚
凌滚滚
2025.2.08
科研的一生是豪赌的一生
Will_B8jM
Will_B8jM
2025.2.08
35:53 请问是什么翻译软件呢☺️
生而为猫奴:immersive translate 沉浸式翻译
Will_B8jM:感谢!
4条回复
RTFB
RTFB
2025.2.08
27:54 嗯,最近听到的相对理性、客观的分析,也非常赞同张老师对当前llm的判断。
3_54hM
3_54hM
2025.2.10
35:26 沉浸式翻译的插件是啥呀
令耳:一个网页翻译插件,挺好用的
TartarusRid
TartarusRid
2025.2.10
15:57 绝大部分人也不知道A4纸上惠普打印机打印的“一”这个字有多少墨点,可这个问题比小学数学还容易。
副词后缀:attention is all you need 👀
AlvinQ
AlvinQ
2025.2.11
感谢主播和嘉宾,这是我近期在小宇宙上听到的关于AI最好的一期节目!
Pastis
Pastis
2025.2.10
45:42 信息量好大,好好学习
“strawberry 有多少 r”这个问题用 deepseek 回答在第三轮对话用时 79s 才回答正确,用 chatgpt 三轮对话还没有回答正确,用 kimi 第一轮就回答正确,并且提到“如果你提到的是为什么有些AI会数错“strawberry”中的“r”,那可能是因为以下原因:”
任何天気
任何天気
2025.2.08
40:16 数据并不能得到的结论,需要回归到因果
另外也刚好想分享最近思考到的关于大模型的一些观点。大模型从另一个角度来看,实际上是在做对真实世界数据的有损压缩。我们熟知的 zip 之类压缩可能是把一些重复的内容来做的压缩;但是大模型,是压缩储存了真实世界元素之间的相关性。这些元素可以是 LLM的token ,也可以是Stable Diffusion的中对于图像的描述词。从这个角度来看,我个人觉得大模型在做“真正的创新”的能力基本为 0, 更多是对已有世界做一个更加精确的拟合,以及和重新组合。
大气的猪咪:给我启发的视频包括真格基金张涛 hidecloud 关于 stable diffusion 的视频,以及karpathy 最近的 deep dive into LLMs 的视频
08:46 自然语言处理:非结构化文本 -> 结构化文本
Xlong
Xlong
2025.3.02
30:27 本00后反思一下
邶_2WuX
邶_2WuX
2025.2.28
就不能像日韩搞半导体联盟那样,国内的大厂搞个个AI联盟吗
这期张教授的观点也印证了我的一些猜想。之前 sora 刚发布的时候,有些其他领域比较厉害的博主也会猜测,sora 视频是否有构建空间的能力,以及更多的普通人猜测大模型的“意识”或者智能。但是我一直觉得大模型只是用一个天量的公式做一个概率相关性上的东西(不恰当的比喻),这和张教授介绍的逻辑是一致的,所以这就限制了大模型的上限
现在时间点应该是出了 deepseekr1 只后一段时间了,r1 是纯开源的,张老师说的 o3“有另一个模型监督推理”的范式其实和 r1 “先思考后给答案”的模式非常类似的。
小龙_tdOR
小龙_tdOR
2025.2.17
太精彩了,希望能多整几期