嘉宾介绍:张钹院士是中国人工智能领域奠基者,中国科学院院士,清华大学计算机系教授、人工智能研究院名誉院长。他推动了中国 AI 领域多个 “第一”—— 发表国内首篇 AI 国际论文、创立首个智能机器人实验室、组建首个 AI 国家重点实验室。他曾获人工智能吴文俊最高成就奖、CCF 终身成就奖等重要荣誉,培养了大批 AI 领域顶尖人才,耄耋之年仍深耕科研一线,引领中国 AI 从跟跑迈向并跑、领跑。
在2026 AGI-Next 前沿峰会的压轴演讲中,张钹院士探讨了当前大语言模型(LLM)的局限性及其向通用人工智能(AGI)发展的路径。他强调LLM的语义定义不完备,导致五大缺失,并提出AGI需满足可执行、可检验的五项关键能力。最后,他重新定义了人工智能时代企业家的社会责任与使命。
大语言模型现状与局限
LLM的核心原理与能力
- LLM通过分布式语义原理,将语义定义为词语共现频率,使语言处理数学化、可计算化
- 在足够数据和上下文支持下,LLM能生成语义连贯、类人语言,趋近于语义关系理解和自反性思考
LLM的根本性缺失
- LLM模型是静态的,其语义定义不完备,导致五个关键缺失:指称、真知与因果、语用、多义与动态语境、闭环行为
- 这些缺失并非数据问题,而是模型近似性所致,影响了语言模型的实际应用效果
迈向通用人工智能(AGI)
AGI的误解与重新定义
- 当前对AGI的定义存在误解,常被过度美化或模糊化,例如马斯克的定义不可执行、不可检验
- AGI应具备可执行、可检验的五项关键能力,以指导实际发展
AGI的五项关键能力
- 时空一致的多模态理解与落地:需解决不同模态时间节奏不同步的对齐难题
- 在线学习与适应:强调可控性,解决强化学习中目标收敛和过程不可控的问题
- 可检验的推理与长期规划:要求推理过程可检验,规划能实现长期执行
- 可检验的反思与元认知:反思需可回溯、可检验,而非仅凭感觉
- 跨任务的泛化能力:需实现跨任务强化,解决分布以外结构不一致的挑战
人工智能与人类社会
人工智能主体性与担忧
- 人工智能作为工具已实现,但未来可能成为规范与责任主体,甚至体验与意识主体
- 人类担忧人工智能超越自身成为新主体,引发如何共处、如何治理的深层问题
人工智能时代的治理与企业家责任
- 治理的重点不应仅是机器,更应是人类研究者和使用者
- 人工智能时代的企业家应重新定义价值创造,将知识转化为可复用工具,造福人类,并承担社会责任,实现普惠可持续增长

