2026 年 3 月 17 日,月之暗面创始人杨植麟作为唯一受邀的独立大模型公司代表,在英伟达 GTC 大会上发表了题为“How We Scaled Kimi K2.5”的主题演讲,首次系统性披露了 Kimi K2.5 背后的技术路线图。
本播客内容综合自数十个权威科技媒体的现场报道整理。由于演讲原稿未完全公开,部分内容为根据现场报道提炼的技术要点,并非逐字逐句的演讲原文,请大家注意:
杨植麟提出了一个颠覆性观点:当前 AI 发展的瓶颈不在于算力堆砌,而在于底层架构的陈旧。他指出,行业普遍使用的技术标准本质上是八九年前的产物,必须对优化器、注意力机制和残差连接等基础组件进行重构。
演讲围绕五大技术维度展开:MuonClip 优化器实现了 2 倍于 AdamW 的训练效率;Kimi Linear 架构让长上下文解码速度提升 5-6 倍;Orchestrator 编排器通过并行强化学习机制解决了多智能体“串行崩溃”难题;Vision RL 的跨模态训练反向提升了纯文本能力 1.7%-2.2%;注意力残差(AttnRes)重构带来 25% 的算力收益。
这场演讲引发了业界强烈反响。前 OpenAI 联合创始人 Andrej Karpathy 直言“我们对 Transformer 的理解还不够”,马斯克评价这项工作“令人印象深刻”。杨植麟的核心洞察是:将计算效率、长程记忆和自动化协作三个维度的技术增益相乘,才能实现智能水平的跨越式提升。
杨植麟承诺持续开源这些基础模块的重构成果,与全球 AI 社区共同推动技术边界。

https://www.bilibili.com/video/BV1NwApzwEYd/