[人人能懂AI前沿] 从动态课程、前瞻记忆到思考成本

[人人能懂AI前沿] 从动态课程、前瞻记忆到思考成本

30分钟 ·
播放数198
·
评论数0

AI的自我进化,听起来很酷,但最新论文告诉我们,AI学徒也需要一位聪明的“教练”为它精心设计训练计划,否则刷再多题也难成大器。我们还会揭示一个奇怪的现象:为什么让AI向完美的自己“抄作业”,反而可能让它在关键的推理任务上变笨?而在使用AI时,你是否发现它总“忘事”,或者那个标价最便宜的模型,最后反而让你花了最多的钱?今天,我们就从五篇最新论文出发,聊聊AI那些出人意料的“成长烦恼”和“使用陷阱”。

00:00:38 AI“学徒”的成长烦恼,为什么聪明的大模型也需要好师傅?

00:06:54 聪明反被聪明误,为什么教AI“抄作业”反而会让它变笨?

00:12:11 你的“私人教练”,不该只会题海战术

00:18:11 你以为的便宜,可能让你花得更多

00:23:43 你的AI“听话”吗?小心它忙起来就忘了

本期介绍的几篇论文:

[LG] Understanding the Challenges in Iterative Generative Optimization with LLMs

[CNRS & Stanford University & CMU]

arxiv.org

---

[CL] Why Does Self-Distillation (Sometimes) Degrade the Reasoning Capability of LLMs?

[Microsoft Research & Seoul National University]

arxiv.org

---

[LG] A Deep Dive into Scaling RL for Code Generation with Synthetic Data and Curricula

[Meta FAIR & University of Tübingen]

arxiv.org

---

[LG] The Price Reversal Phenomenon: When Cheaper Reasoning Models End Up Costing More

[Stanford University & UC Berkeley & CMU]

arxiv.org

---

[CL] Did You Forget What I Asked? Prospective Memory Failures in Large Language Models

[Microsoft]

arxiv.org