AI重塑未来:2025 GTC 加速计算与智能代理革命M7AI

AI重塑未来:2025 GTC 加速计算与智能代理革命

17分钟 ·
播放数0
·
评论数0

在这篇演讲中,英伟达首席执行官黄仁勋阐述了加速计算人工智能如何共同驱动一场新的工业革命。他详细介绍了Blackwell架构等尖端硬件,以及支撑全球开发者生态系统的丰富软件库。黄仁勋强调,现代数据中心已转型为生产智能的AI工厂,能够通过数字孪生技术优化实体产业。此外,他还重点讨论了智能体AI量子计算以及人形机器人的崛起,预示着技术将从语言生成跨越到物理世界的感知与行动。最后,他表达了对欧洲AI基础设施建设的支持,并重申了主权AI对于维护各国数据与文化资产的重要性。

“AI工厂”(AI Factory)是指一种新型的数据中心,它的唯一工作和核心目的就是生产“智能token”(即生成人工智能)。它就像是一个制造工厂,专门“制造”可以转化为各行各业生产力的智能。

它与传统数据中心的主要区别如下:

  • 核心功能不同:传统意义上的数据中心主要用于存储和检索文件。而AI工厂完全不以存储文件为目的,而是专门为了运行复杂的推理模型和生成token而建立的。
  • 商业定位与价值不同:通常情况下,企业不会将传统数据中心视为直接创造收入的设施。相反,AI工厂被视为真正的“创收设施”,其运作逻辑类似于传统的实体制造工厂,能够通过源源不断地生产智能(token)来直接推动业务增长并产生收入。
  • 设计理念与运作模式不同:虽然AI工厂因为内部装配了大量计算机,乍看之下与数据中心相似,但在系统的架构设计、制造规模、资源的调配以及运作方式上却有着本质的破局。例如,像Stargate这样的大型AI计算设施,在外观和规模上已经脱离了传统数据中心的形态,更像是一座庞大的工业界工厂,致力于产出海量的智能。

什么是代理型AI(Agentic AI)?

代理型AI(Agentic AI)代表了人工智能发展的一个巨大跨越,它从过去的“一次性(one-shot)”基础问答模型,进化为了具备完整智能循环的系统。黄仁勋指出,真正的智能在于感知、推理、规划任务、寻找解决方案并最终执行。代理型AI不仅能够理解复杂的指令,还能将复杂问题逐步分解,在解决问题的过程中进行自主推理、反思、研究新信息,甚至调用外部工具(例如使用计算器)来完成任务。

代理型AI主要分为两种表现形式:一种是在数字世界中运作的“信息机器人(Information Robots)”或软件代理;另一种则是拥有物理形态、能够产生运动并使用物理工具的“实体AI(Embodied AI)”或物理机器人。

它将如何改变我们的工作方式?

代理型AI将从以下几个维度深刻改变未来的工作模式:

  • 成为企业的“数字员工”: 代理型AI将像数字员工一样融入公司。企业不仅可以从外部平台(如OpenAI、Gemini、Copilot等)“雇佣”通用代理来协助处理安排行程、收集资料等日常事务,还会针对特定业务构建掌握专门技能和工具的“专业代理”。企业的IT部门将需要像管理人类员工一样,为这些AI代理办理“入职”,对它们进行微调、培训、评估、设置安全护栏(Guardrails),并不断提升它们的能力。
  • 深度的自主问题解决能力: 以前你向聊天机器人输入一个提示词(Prompt),它可能只会生成几百个词的直接回答;而现在,你只需给代理型AI一个任务提示,它可能会在后台生成一万倍以上的词(Tokens)。这是因为它在回答你之前,会花大量时间“自言自语”、推理、尝试不同的路径并自我反思答案的质量,直到为你提供一个完整、优化的解决方案。
  • 推动物理世界工作的自动化(机器人普及): 代理型AI的生成能力不再局限于生成文字、图像或视频,而是开始生成“运动”。过去,由于机器人编程极其困难,只有大型汽车制造厂等巨头才能负担得起机器人的部署。而现在,搭载了代理型AI的物理机器人(如人形机器人)可以通过观察人类或在虚拟孪生世界(如Omniverse)中学习物理规律和操作技能。这将使得中小型企业、街边商店、餐厅或普通仓库也能轻松部署和“教导”机器人工作,彻底改变实体行业的工作方式。

“智能Token”(Intelligent Token)是AI数据中心(即AI工厂)唯一负责生产的核心“产品”。在人工智能的语境中,Token是AI处理和生成信息的基本单位(例如单词、代码片段或动作指令)。随着AI向代理型AI(Agentic AI)进化,这些Token不再只是简单的一问一答,而是凝聚了感知、推理、规划和执行能力的“生产性智能”(Productive Intelligence)

这些智能Token通过以下几种方式转化为实际的生产力:

  • 通过“深度思考”提供高质量解决方案: 具备推理能力的AI在给出最终答案之前,会在后台生成海量的Token来进行“自言自语”。它会将复杂问题逐步拆解、尝试不同的解决路径并进行自我反思。相比于过去几百个Token的简单回答,现在解决一个问题可能需要生成一万倍以上的Token。这种建立在庞大Token生成量基础上的深度推理,能直接为人类提供极其完善且高度优化的专业解决方案。
  • 重塑企业业务与促进行业创收: AI工厂如同传统汽车制造厂一样,其生产出来的智能Token可以被重新定制和转化为适用于各个行业的生产力。例如,这些智能可以化身为数字员工(AI代理),直接被用于自动化临床试验、编写代码、协助语言翻译或进行工厂和数字孪生的规划与模拟。正因如此,源源不断制造Token的AI工厂本身就成为了能够直接创造收入的设施,推动着新的工业革命。
  • 转化为物理世界的“运动”与机器人的行动力: 智能Token的生产力不再局限于屏幕上的图文。对于像人形机器人(例如Grek)这样的实体AI来说,AI工厂生成的Token就是它们的“食物”和运动指令。基于大模型生成的Token,机器人能够感知物理环境、规划行进路线、做出复杂的关节活动(如行走、抓取、使用工具等)。这意味着智能Token能够直接驱动物理世界的自动化工作,让原本难以编程的机器人广泛应用于中小企业、餐厅甚至家庭中。

代理型AI(Agentic AI)之所以需要比普通AI(如过去的基础问答模型)庞大得多的算力,核心原因在于它的工作模式从简单的“一次性回答(one-shot)”跨越到了极其复杂的“自主推理与思考循环”

具体体现在以下几个方面:

  • 生成海量的“内部Token”(自言自语): 普通的聊天机器人在接收到一个提示词(Prompt)后,通常只会直接生成几百个词(Tokens)的回答。而当你向代理型AI输入一个单一的任务提示时,它为了解决问题,可能会在后台生成多达一万倍的Tokens
  • 复杂的逻辑推演与多路径尝试: 代理型AI本质上是一个“推理模型”。在给你最终答案之前,它会花大量时间“自言自语”,将复杂问题按步骤进行拆解。它会尝试许多不同的解决路径(例如运用“思维链”或“思维树”的方法),并在海量的信息中进行探索。
  • 持续的自我反思与优化: 它能够对自己的解答进行反思。它会审视自己生成的答案并自我提问:“这是一个好答案吗?我能做得更好吗?”,然后它会推翻重来,回去继续思考,直到得出最优解。

正是因为代理型AI在给出最终结果之前,需要经历这种反复的规划、推理、尝试和自我反思,导致其计算量呈指数级爆发。这也是为什么传统的芯片架构难以满足需求,迫使业界必须开发出像Grace Blackwell这样专为推理和思考而设计的、性能实现巨大跨越的新一代“思考机器(Thinking Machine)”。

在提供的资料中,**“思维链”(Chain of Thoughts)“思维树”(Tree of Thoughts)**被指代为新一代代理型AI(推理模型)在解决复杂问题时尝试不同逻辑路径的推演方法。

与传统的“一次性(one-shot)”生成的聊天机器人不同,具备推理能力的AI在给出最终答案前,会花大量时间“自言自语”,将复杂问题一步一步地进行详细拆解。在这个过程中,AI会运用思维链、思维树(包括从N个结果中选择最佳的“best of n”策略)等路径进行探索,并不断反思自己的答案。模型会自我拷问:“这是一个好答案吗?我能做得更好吗?”,如果可以更好,它就会推翻重来,回去继续深入思考和推理。

(请注意:以下关于这两种技术具体运作机制的详细定义属于外部补充信息,并非来自您提供的会议演讲资料,建议您在需要时进行独立验证。)

  • 思维链(Chain of Thought, CoT): 这是一种引导大语言模型进行线性逻辑推理的技术。它要求AI不要直接从“问题”跳跃到“答案”,而是把复杂的难题拆解为一步接一步的中间推理过程(即按照“步骤A -> 步骤B -> 步骤C -> 结论”的单行道进行)。这种展示思考过程的方法,大大降低了AI在复杂数学或逻辑计算上的出错率。
  • 思维树(Tree of Thoughts, ToT): 这是思维链的进阶架构,代表了多路径并行探索。如果说思维链是一条线,思维树就像是一个拥有许多分叉的迷宫。在遇到极度复杂的问题时,AI在每一个推理节点上都会构思出多种可能的下一步,形成一棵“选择树”。它会评估不同分支的成功概率,并在某条路径行不通时进行“回溯”(退回到上一步的交叉口),去尝试另一条未曾探索的分支,直到找出最优解。

综上所述,结合我们之前的对话,正是因为AI在底层运用了思维链和思维树等深度推理架构,它才需要在后台经历反复的规划、尝试和自我反思,从而生成比过去多出成千上万倍的“智能Token”。这也直接解释了为何整个科技行业必须制造出像Grace Blackwell这样性能实现30到40倍跨越的“思考机器”,来支撑这种指数级爆发的算力需求。

根据黄仁勋的演讲,英伟达的 Grace Blackwell 芯片架构具有多项革命性的创新,旨在满足下一代人工智能(特别是代理型AI)呈指数级爆发的算力需求:

  • 专为推理设计的“思考机器(Thinking Machine)”: 过去的芯片主要应对“一次性(one-shot)”的问答生成,而 Grace Blackwell 是专门为具备推理、规划和深度反思能力的代理型AI设计的。它能够支撑模型在后台进行“自言自语”和多路径探索时产生的海量Token,打破了摩尔定律的常规演进速度,实现了单代产品相比上一代(Hopper架构)30到40倍的性能跨越
  • 化身为“一台巨型虚拟GPU”: 相比于单颗GPU,Grace Blackwell 系统的设计理念是将海量组件整合在一起,通过全新的网络技术和极低功耗的高能效互联技术(SerDes),使成百上千的芯片和系统联合起来,表现得就像一个巨大的虚拟GPU
  • 深度的CPU-GPU集成与全面液冷: 传统的AI超级计算节点通常将CPU托盘和GPU系统分开,而一个 Grace Blackwell 计算托盘将CPU与GPU直接相连并高度集成(例如包含2个CPU和4个GPU),且采用了全面的液冷散热设计,单节点性能就超越了过去庞大的整个Hopper系统。
  • 突破性的 NVLink 铜缆骨干(NVLink Spine): 为了解决计算“向上扩展(Scaling up)”的极度困难,英伟达打造了革命性的 NVLink 互联系统。其核心是一条100%由纯铜同轴电缆制成的骨干网络,它将所有的 GPU 直接连接在一起。这使得 144 个 Blackwell 芯片晶圆能够同时进行无阻塞通信,其背板带宽达到了惊人的 130 TB/秒,这甚至超过了全球互联网峰值流量的数据率。
  • 全面加速量子计算: Grace Blackwell 200 芯片不仅用于传统AI,它还全面支持并加速了英伟达的量子计算算法栈(CUDA-Q),为量子与经典混合计算带来了令人难以置信的速度提升。