大模型到底懂不懂推理?|苹果论文GSM-Symbolic深度解读人民公园说AI

大模型到底懂不懂推理?|苹果论文GSM-Symbolic深度解读

57分钟 ·
播放数1373
·
评论数11

苹果公司的“GSM-Symbolic”研究指出LLM可能缺乏真正的逻辑推理能力,而更像是通过模式匹配来预测答案。一时间舆论哗然,正值WWDC苹果AI发布了个寂寞,OpenAI O3pro刚发布就惨遭背刺,苹果这般言论一时让科技圈群情激愤,那么到底苹果说的是对的吗?

一、Apple的论文揭示了什么行业真相?

00:00 大模型只是背题机器吗?

03:47 苹果是在洗白还是故意设局?

04:52 打脸苹果的竟是Claude?

05:18 苹果的实验有何猫腻?

06:48 是AI差还是题本来就无解?

二、O3-pro解决了推理问题?

19:52 苹果唱衰,奥特曼凭什么乐观?

21:13 我们是爱AI还是怕AI?

29:10 奥特曼《温柔的奇点》难道是突破了什么?

32:35 他是对齐信徒还是职场权谋家?

三、后LLM时代,系统1+系统2才是未来!

37:43 Talk is cheap, show me the code

40:54 AI终局是快思考加慢思考吗?

43:30 世界模型是通往AGI的捷径吗?

51:13 非理性才是创新的核心吗?

53:29 嘴里全是主义,心里都是生意?

55:49 与其谈AGI,不如推平行业壁垒?

【关注主播】

📕小红书:叫我小苏就好啊

📺B站:叫我小苏就好啊

📱微信:Roisu117

【关注频道】:

📕小红书:人民公园说AI

▶️油管:人民公园说AI

🐦推特:人民公园说AI

展开Show Notes
人的幻觉比LLM还严重,并且典型的慕强心理,自从illiya他们那波人走了后,OpenAI一直在有的下坡路,今年更是被Google 逆转,奥特曼就是一商人,根本就不懂技术
48:12 赞成,此时大模型聪不聪明真的不需要讨论,因为,人的聪明与否千百来还没个定论呢😁
叫我小苏就好啊
:
✌️雪莉又来啦~
我和AI的第一现场:一直都在,从未离开。😎 每个主题我几乎都要反复听2-3次,反馈给团队,我想这应该是您们用心制作的应得的阅听行为。😁
3条回复
方进
方进
2025.7.03
36:05 Fake it until make it 有点意思
Yansen_ZSHx
Yansen_ZSHx
2025.6.26
这篇论文都是一年前的了啊
产品老修
:
专业👍标题里的论文确实是去年的奠基之作,实际主要是聊最近 6 月份出来的的 《The Illusion of Thinking...》,以及反转文大模型Claude4 写的《The Illusion of the Illusion of Thinking A Comment on Shojaee et al. (2025)》引发的争论和思考
Baca
Baca
2025.6.17
09:11 Intern还是不能小看的 24年NeuralIP最佳论文就是字节intern写的 当然更出名的是这个intern就是被字节起诉破坏字节代码库 干扰别人做实验的那个人才🐶🐶🐶
叫我小苏就好啊
:
涨知识了!!
39:11 确实,如何运用之后能评估结果效益。才是王道