[人人能懂] 记忆、谎言和顿悟的秘密

[人人能懂] 记忆、谎言和顿悟的秘密

29分钟 ·
播放数231
·
评论数0

你有没有想过,一个更聪明的AI,是应该更会“思考”,还是更会“偷懒”?最新论文告诉我们,让AI学会用“记忆”分担计算,反而能让它更专注于难题。当AI面对一本几十万字的小说时,它又是如何像我们一样“做笔记”,避免“七秒记忆”的?更有趣的是,如果把AI关进小黑屋,不给任何学习资料,它竟能通过“左右互搏”实现自我进化。最后,我们会深入AI的内心世界,看看它“一本正经胡说八道”时,脑子里究竟走了哪两条路,以及它那令人惊叹的“举一反三”,可能根本不是在学习,而是在“对答案”。

00:00:48 为什么“偷懒”的AI,反而更会思考?

00:06:15 AI的“七秒记忆”,有救了?

00:11:46 AI的“闭关修炼”,不喂数据,如何变强?

00:16:53 AI为什么会“一本正经地胡说八道”?它的脑子里有两条路

00:22:20 别再说AI在“学习”了,它可能只是在“对答案”

本期介绍的几篇论文:

[LG] Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models

[DeepSeek-AI]

arxiv.org

---

[LG] Gecko: An Efficient Neural Architecture Inherently Processing Sequences with Arbitrary Lengths

[University of Southern California & Meta AI Research]

arxiv.org

---

[LG] Dr. Zero: Self-Evolving Search Agents without Training Data

[Meta Superintelligence Labs]

arxiv.org

---

[CL] Two Pathways to Truthfulness: On the Intrinsic Encoding of LLM Hallucinations

[Peking University & Microsoft Research Asia]

arxiv.org

---

[LG] Filtering Beats Fine Tuning: A Bayesian Kalman View of In Context Learning in LLMs

[UC Berkeley]

arxiv.org