大模型长上下文的谎言 | 姚顺雨 | CL-BENCH | 揭秘上下文税AI前沿

大模型长上下文的谎言 | 姚顺雨 | CL-BENCH | 揭秘上下文税

23分钟 ·
播放数301
·
评论数0

为什么拥有百万token窗口的大模型,在处理复杂任务时依然会间歇性失忆?本期深度拆解腾讯首席AI科学家姚顺雨的最新论文,撕开大模型长上下文能力的遮羞布。从上下文税的困境到CL-BENCH的严苛测试,我们发现即使是GPT-5.1在真实世界的应用场景下,解题率竟然也不足四分之一。将带你洞察AI研发范式的底层变革,为什么说检索不等于应用?如何通过课程学习和架构创新,让AI从一个阅读机器进化为思考机器?拒绝榜单高分,直击Agent落地最核心的卡点。

聊天讨论群,可加微信gxjdian入群,需备注,来自播客AI前沿