告别7秒记忆:线性注意力让AI读懂整本《三体》

告别7秒记忆:线性注意力让AI读懂整本《三体》

7分钟 ·
播放数1535
·
评论数44

本期主题:

为什么AI经常聊着聊着就忘了之前说过啥?

现在Kimi Linear大大地扩展了它的“内存”,一次性处理整本书、超长报告或几万字的代码,再也不用看后忘前啦!

【本期节目简介】

本期聊最新论文 Kimi Linear:一种线性注意力+细粒度门控(KDA)的混合架构,让模型在保持显存友好、运算加速的同时,仍能精准记住上百万 token 的细节。我们拆解原理、实验表现以及对聊天机器人、代码生成和成本的实际影响。

【主要话题点总结】

  • 如何让AI读完《三体》后还能倒背如流?线性注意力如何突破长文本记忆瓶颈?
  • 聊天总忘记前情?Kimi Linear怎样让对话机器人拥有连续记忆?
  • 代码生成只能看几百行?百万级上下文如何实现全局代码重构?
  • 显存爆炸怎么办?线性注意力如何用普通显卡跑百万文本?
  • 全注意力vs线性注意力:Kimi Linear如何用“磁带快进”兼顾速度与精度?
  • 开源模型直接可用?普通开发者如何快速上手长文本处理利器?

【订阅与关注】

  • 如果您喜欢本期播客的内容,欢迎访问我们的B站主页:
  • 在B站搜索GenJi是真想教会你或扫描下方二维码,进入我们的频道。
  • 直接搜索 AI进化论,即可观看完整的系列视频节目。

展开Show Notes
HD764646y
HD764646y
2025.11.19
节目本身就是两个 AI 对话吧
希望世界永远下雨:你为什么会觉得这是ai?
c_RuLi_:可以看看作者的b站视频
米粒儿0911
米粒儿0911
2025.11.12
再也不用担心AI忘记我之前说过什么了
c_RuLi_
c_RuLi_
2025.12.09
😂看b站视频来听了 真是完全无法想象这个博客的全部内容都是ai生成的
每期都听,每次都有收获,支持朱古力和Genji,继续做最好的AI科普!
萝卜缨子88
萝卜缨子88
2025.11.13
从T平方降到T×d,这个复杂度优化对长文本来说就是降维打击
小虾6688
小虾6688
2025.11.13
临时记忆不保存这个设计很好,但企业版能不能加加密选项?
配合下一代GPU,能处理千万级上下文吗?
把复杂的AI技术讲得这么易懂,辛苦了!
微醺云
微醺云
2025.11.12
担心技术普及后,生成超长虚拟内容的成本也更低了…
这么厉害!
小财福满
小财福满
2025.11.12
效率神器啊
三层线性+一层全注意力,那省资源和保质量都做到了,这个平衡点找得真好
微光诗梦
微光诗梦
2025.11.12
记忆宫殿(机器版)
Kimi Linear的线性注意力+细粒度门控(KDA)的混合架构,实在是太棒了!这样使用起来更放心啊!
“定期全景拍照”防止遗忘——就像我们看书时做笔记一样。
云路远
云路远
2025.11.12
你俩讲的好清楚
yilufa
yilufa
2025.11.12
科幻一步步变成现实,我们正见证历史
期待主流框架尽快集成这个技术
在什么场景下建议用全注意力,什么场景用Kimi Linear?
这和上期聊的光学压缩是互补技术吧?一个压缩一个记忆