英伟达2026 GTC大会 黄仁勋演讲全文

主持人: 欢迎英伟达创始人兼首席执行官黄仁勋上台。

黄仁勋,创始人兼首席执行官:

欢迎来到GTC。我想提醒大家,这是一场技术大会。能看到这么多人一大早排队入场,
能看到在座的各位,我感到非常高兴。

在GTC,我们将聚焦三大主题:技术、平台和生态系统。英伟达目前拥有三大平台:
CUDA-X 平台、系统平台,以及我们最新推出的AI 工厂平台。

在正式开始之前,我要感谢我们的预热环节主持人——Conviction 的Sarah Guo、红
杉资本的Alfred Lin(英伟达的第一位风险投资人),以及英伟达的第一位主要机构投
资人Gavin Baker。这三位对技术有深刻的洞见,在整个技术生态系统中拥有极广的影
响力。当然,我还要感谢今天所有我亲自邀请出席的贵宾们。感谢这支全明星团队。

我同样要感谢今天到场的所有企业。英伟达是一家平台公司,我们拥有技术、平台和丰
富的生态系统。今天到场的企业代表了价值100 万亿美元行业中几乎全部的参与者,
共有450 家公司赞助了本次活动,在此深表感谢。

本次大会共设有1,000 场技术论坛、2,000 位演讲嘉宾,将覆盖人工智能”五层蛋糕”架
构的每一个层级——从土地、电力与机房等基础设施,到芯片、平台、模型,以及最终
推动整个行业腾飞的各类应用。

英伟达2026 GTC大会 黄仁勋演讲全文

CUDA:二十年的技术积淀

一切的起点,就在这里。今年是CUDA 诞生二十周年。

二十年来,我们始终致力于这一架构的研发。CUDA 是一项革命性的发明——SIMT(单
指令多线程)技术允许开发者以标量代码编写程序,并将其扩展为多线程应用,其编程
难度远低于此前的SIMD 架构。我们最近还新增了Tiles 功能,帮助开发者更便捷地编
程张量核心(Tensor Core),以及当今人工智能所依赖的各类数学运算结构。目前,
CUDA 已拥有数千种工具、编译器、框架和库,在开源社区中存在数十万个公开项目,
并已深度集成到每一个技术生态系统之中。

这张图表揭示了英伟达100%的战略逻辑,我从最初就一直在讲这张幻灯片。其中最难
实现、也是最核心的要素,是图表底部的”装机量”。历经二十年,我们已在全球范围内
积累了数亿块运行CUDA 的GPU 和计算系统。

我们的GPU 覆盖所有云平台,服务于几乎所有计算机厂商和行业。CUDA 庞大的装机
量,正是这个飞轮不断加速的根本原因。装机量吸引开发者,开发者创造新算法并取得
突破,突破催生全新市场,新市场形成新生态并吸引更多企业加入,进而扩大装机量
——这个飞轮正在持续加速。

英伟达库的下载量正以惊人的速度增长,规模庞大且增速不断提升。这个飞轮使我们的
计算平台能够支撑海量应用和层出不穷的新突破。

更重要的是,它还赋予了这些基础设施极长的使用寿命。原因显而易见:NVIDIA CUDA
上可运行的应用极为丰富,涵盖AI 生命周期的每个阶段、各类数据处理平台,以及各
种科学原理求解器。因此,一旦安装了英伟达GPU,其实际使用价值极高。这也是为
何我们六年前发布的Ampere 架构GPU,其云端价格反而在上涨。

这一切的根本原因在于:装机量庞大,飞轮强劲,开发者生态广泛。当这些因素共同发
挥作用,加之我们持续更新软件,计算成本便会不断下降。加速计算在大幅提升应用性
能的同时,随着我们长期维护和迭代软件,用户不仅能在初期获得性能跃升,还能持续
享受计算成本的下降。我们愿意为全球每一块GPU 提供长期支持,因为它们在架构上
完全兼容。

我们之所以愿意这样做,是因为装机量如此庞大——每发布一次新的优化,便能惠及数
百万用户。这种动态组合,使得英伟达架构在持续扩大覆盖范围、加速自身成长的同时,
不断压低计算成本,最终刺激新的增长。CUDA 是这一切的核心。

从GeForce 到CUDA:二十五年的演进之路

而我们与CUDA 的旅程,实际上早在二十五年前就已开始。

GeForce——相信在座有很多人是伴随着GeForce 长大的。GeForce 是英伟达最成功
的市场推广项目。我们从你们还买不起产品的时候就开始培养未来的客户——是你们的
父母代替你们成为了英伟达最早的用户,年复一年地购买我们的产品,直到有一天,你
们成长为优秀的计算机科学家,成为真正意义上的客户和开发者。

这是二十五年前GeForce 奠定的基业。二十五年前,我们发明了可编程着色器——这
是让加速器实现可编程化的一项显而易见却意义深远的发明,也是世界上第一款可编程
加速器,即像素着色器。这五年后,我们创造了CUDA——这是我们有史以来最重要
的投资之一。当时公司财力有限,但我们将绝大部分利润押注于此,致力于将CUDA
从GeForce 延伸到每一台计算机。我们之所以如此坚定,是因为我们深信其潜力。尽
管初期历经艰辛,公司坚守这一信念长达13 代、整整二十年,如今CUDA 已无处不在。

正是像素着色器推动了GeForce 的革命。而大约八年前,我们推出了RTX——为现代
计算机图形时代对架构进行了全面革新。GeForce 将CUDA 带给了全世界,也正因如
此,让Alex Krizhevsky、Ilya Sutskever、Geoffrey Hinton、Andrew Ng 等众多学
者发现,GPU 可以成为加速深度学习的利器,由此点燃了十年前人工智能的大爆炸。

十年前,我们决定将可编程着色与两个全新理念相融合:一是硬件光线追踪(Ray
Tracing),这在技术上极具挑战;二是一个当时颇具前瞻性的想法——大约十年前,
我们就预见到AI 将彻底变革计算机图形。正如GeForce 将AI 带给了全世界,AI 如今
也将反过来重塑整个计算机图形的实现方式。

今天,我要向大家展示未来。这是我们的下一代图形技术,我们称之为神经渲染(Neural
Rendering)——3D 图形与人工智能的深度融合。这就是DLSS 5,请看。

神经渲染:结构化数据与生成式AI 的融合

这是不是令人叹为观止?计算机图形就此焕发生机。

我们做了什么?我们将可控的3D 图形(虚拟世界的真实基础)与其结构化数据相结合,
再融入生成式AI 和概率计算。一个完全确定性,另一个概率性却高度逼真——我们将
这两种理念融为一体,通过结构化数据实现精准可控,同时进行实时生成。最终,内容
既美观惊艳,又完全可控。

结构化信息与生成式AI 融合这一理念,将在一个又一个行业中不断复现。结构化数据
是可信AI 的基石。

结构化数据与非结构化数据的加速平台

现在我要带大家看一张技术架构图。

结构化数据——大家熟悉的SQL、Spark、Pandas、Velox,以及Snowflake、
Databricks、Amazon EMR、Azure Fabric、Google BigQuery 等重要平台,都在处
理数据框(Data Frame)。这些数据框就像巨型电子表格,承载着商业世界的全部信
息,是企业计算的基本事实(Ground Truth)。

在AI 时代,我们需要让AI 来使用结构化数据,并对其实现极致加速。过去,加速结构
化数据处理是为了让企业更高效地运转。而未来,AI 将以远超人类的速度使用这些数
据结构,AI 智能体也将大量调用结构化数据库。

非结构化数据方面,向量数据库、PDF、视频、音频等构成了世界上绝大多数的数据形
态——每年生成的数据中,约90%是非结构化数据。过去,这些数据几乎完全无法被
利用:我们读取它们,存入文件系统,仅此而已。我们无法查询,也难以检索,原因在
于非结构化数据缺乏简单的索引方式,必须理解其含义与语境。而现在,AI 可以做到
这一点——借助多模态感知与理解技术,AI 能够读取PDF 文档、理解其含义,并将其
嵌入可供查询的更大结构之中。

英伟达为此创建了两个基础库:

  • cuDF:用于数据框、结构化数据的加速处理
  • cuVS:用于向量存储、语义数据和非结构化AI 数据的处理

这两个平台将成为未来最重要的基础平台之一。

今天,我们宣布与多家企业达成合作。IBM——SQL 语言的发明者,将使用cuDF 加速
其WatsonX Data 平台。Dell 与我们联合打造了Dell AI 数据平台,整合cuDF 与cuVS,
并在NTT Data 的实际项目中实现了大幅性能提升。Google Cloud 方面,我们现在不
仅加速Vertex AI,还加速BigQuery,并与Snapchat 合作将其计算成本降低了近80%。

加速计算带来的好处是三位一体的:速度、规模、成本。这与摩尔定律的逻辑一脉相承
——通过加速计算实现性能飞跃,同时持续优化算法,让所有人都能享受到持续下降的
计算成本。

英伟达构建了加速计算平台,其上汇聚了众多库:RTX、cuDF、cuVS 等等。这些库整
合进全球云服务和OEM 体系,共同触达全球用户。

与云服务商的深度合作

  • Google Cloud:我们加速Vertex AI 和BigQuery,与JAX/XLA 深度集成,同时在
    PyTorch 上表现卓越——英伟达是全球唯一一家在PyTorch 和JAX/XLA 上均表现出色
    的加速器。我们将Base10、CrowdStrike、Puma、Salesforce 等客户引入Google Cloud
    生态。
  • AWS:我们加速EMR、SageMaker 和Bedrock,与AWS 有着深度集成。今年令我
    格外兴奋的是,我们将把OpenAI 引入AWS,这将大幅推动AWS 云计算的消耗增长,
    帮助OpenAI 扩展区域部署和计算规模。
  • Microsoft Azure:英伟达100 PFLOPS 超算是我们构建的第一台超级计算机,也是第
    一台部署在Azure 上的超算,这奠定了与OpenAI 合作的重要基础。我们加速Azure
    云服务和AI Foundry,合作推进Azure 区域扩展,并在Bing 搜索上深度协作。值得
    一提的是,我们的**保密计算(Confidential Computing)**能力——确保即便是运
    营商也无法查看用户数据和模型——英伟达GPU 是全球首批支持保密计算的GPU,可
    支持OpenAI 和Anthropic 模型在全球各地区云环境中的保密部署。以Synopsys 为
    例,我们加速其全部EDA 和CAD 工作流,并部署于Microsoft Azure。
  • Oracle:我们是Oracle 的第一个AI 客户,我为能够第一次向Oracle 解释AI 云的概
    念感到自豪。此后他们发展迅猛,我们也为其引入了Cohere、Fireworks、OpenAI
    等众多合作伙伴。
  • CoreWeave:全球第一家AI 原生云,专为GPU 托管和AI 云服务而生,拥有出色的客
    户群,增长势头强劲。
  • Palantir + Dell:三方联合打造了全新的AI 平台,基于Palantir 的本体论平台
    (Ontology Platform)和AI 平台,可在任何国家、任何气隙隔离环境下、完全本地
    化地部署AI——从数据处理(向量化或结构化)到AI 的完整加速计算栈,无所不包。

英伟达与全球云服务商建立了这种特殊的合作关系——我们将客户引入云端,这是一种
互利共赢的生态。

垂直整合,横向开放:英伟达的核心战略

英伟达是全球第一家垂直整合、横向开放的公司。

这一模式的必要性非常简单:加速计算不是芯片问题,也不是系统问题,其完整表述应
为应用加速。CPU 可以让计算机整体运行得更快,但这条路已走到瓶颈。未来,唯有
通过应用或领域特定的加速,才能持续带来性能飞跃和成本下降。

这正是英伟达必须深耕一个又一个库、一个又一个领域、一个又一个垂直行业的原因。
我们是一家垂直整合的计算公司,没有其他路可走。我们必须理解应用,理解领域,深
刻理解算法,并能够将其部署在任何场景下——数据中心、云端、本地、边缘乃至机器
人系统。

同时,英伟达保持横向开放,愿意将技术整合进任何合作伙伴的平台,让全世界都能享
受到加速计算的红利。

本届GTC 的参会者结构充分体现了这一点。本次参会者中,金融服务行业的比例最高
——希望来的是开发者,不是交易员。我们的生态系统覆盖了上游和下游供应链。无论
是成立50 年、70 年还是150 年的企业,去年都迎来了历史最佳年份。我们正处于某
件非常、非常重大的事情的起点。

CUDA-X:各行业的加速计算引擎

在各个垂直领域,英伟达均已深度布局:

  • 自动驾驶:覆盖范围广泛,影响深远
  • 金融服务:量化投资正从人工特征工程转向超级计算机驱动的深度学习,迎来其
    “Transformer 时刻”
  • 医疗健康:正在迎来属于自己的”ChatGPT 时刻”,涵盖AI 辅助药物发现、AI 智能体支
    持诊断、医疗客服等方向
  • 工业:全球规模最大的建设浪潮正在展开,AI 工厂、芯片厂、数据中心厂纷纷落地
  • 娱乐与游戏:实时AI 平台支持翻译、直播、游戏互动,以及智能购物代理
  • 机器人:深耕十余年,三大计算机架构(训练计算机、仿真计算机、机载计算机)齐备,
    本次展会共有110 款机器人亮相
  • 电信:约2 万亿美元规模的行业,基站将从单一通信功能演进为AI 基础设施平台,相
    关平台名为Aerial,与诺基亚、T-Mobile 等企业均有深度合作

以上所有领域的核心,正是我们的CUDA-X 库——这是英伟达作为算法公司的根本所
在。这些库是公司最核心的资产,让计算平台得以在各个行业发挥实际价值。
其中最重要的库之一,是cuDNN(CUDA 深度神经网络库),它彻底革新了人工智能,
引发了现代AI 的大爆炸。

大家刚才看到的一切都是仿真——包括基于物理原理的求解器、AI 代理物理模型,以
及物理AI 机器人模型。一切均为仿真,没有任何手工动画或关节绑定。这正是英伟达
的核心能力所在:通过对算法的深刻理解与计算平台的有机结合,解锁这些机遇。

AI 原生企业与新计算时代

你们刚才看到了沃尔玛、欧莱雅、摩根大通、罗氏、丰田等定义当今社会的行业巨头,
也有一大批大家从未听说过的公司——我们称之为AI 原生企业。这份名单极为庞大,
里面有OpenAI、Anthropic,以及众多服务于不同垂直领域的新兴企业。

过去两年,这一行业经历了惊人的腾飞。风险投资流入初创企业的资金规模达到1,500
亿美元,创人类历史之最。更重要的是,单笔投资规模首次从数百万美元跃升至数亿乃
至数十亿美元。原因只有一个:这是史上第一次,每一家此类公司都需要大量计算资源
和大量token。这个行业正在创造、生成token,或者为来自Anthropic、OpenAI 等
机构的token 增值。

正如PC 革命、互联网革命、移动云革命各自孕育出一批划时代的企业,这一代计算平
台变革同样将诞生一批极具影响力的公司,成为未来世界的重要力量。

推动这一切的三大历史性突破

过去两年究竟发生了什么?三件大事。

  1. ChatGPT,开启生成式AI 时代(2022 年底至2023 年)
    它不仅能感知和理解,还能生成独特内容。我展示了生成式AI 与计算机图形的融合。
    生成式AI 从根本上改变了计算的方式——计算从检索式转变为生成式,这深刻影响着
    计算机架构、部署方式和整体意义。
  2. 推理AI(Reasoning AI),以o1 为代表
    推理能力使AI 能够自我反思、规划、分解问题——将它无法直接理解的问题拆解为可
    处理的步骤。o1 让生成式AI 变得可信,能够依据真实信息进行推理。为此,输入context
    的token 量和用于思考的输出token 量大幅增加,计算量随之显著提升。
  3. Claude Code,首个智能体模型
    它能读取文件、编写代码、编译、测试、评估并迭代。Claude Code 彻底革新了软件
    工程——英伟达100%的工程师都在使用Claude Code、Codex 和Cursor 中的一种
    或多种,没有一位软件工程师不借助AI 助力。

这是一个全新的拐点——你不再是询问AI”是什么、在哪里、怎么做”,而是让它”创建、
执行、构建”,让它主动使用工具、读取文件、分解问题、付诸行动。AI 从感知,到生
成,到推理,再到如今真正能够完成工作。
过去两年,推理所需的计算量增长了约10,000 倍,使用量增长了约100 倍。我一直认
为,过去两年计算需求增长了100 万倍——这是所有人的共同感受,是OpenAI 的感
受,是Anthropic 的感受。如果能获得更多算力,就能生成更多token,收入就会提升,
AI 就会变得更智能。推理拐点已然到来。

万亿美元的AI 基础设施时代

去年此时,我在这里表示,我们对Blackwell 和Rubin 在2026 年之前的需求和采购订
单有高度信心,规模约为5,000 亿美元。今天,在GTC 一年之后,我站在这里告诉大
家:展望到2027 年,我看到的数字至少是1 万亿美元。而且我确信,实际的计算需求
将远不止于此。

2025:英伟达推理年

2025 年是英伟达的推理年(Year of Inference)。我们希望确保,在训练和后训练之
外,也能在AI 生命周期的每个阶段都保持卓越,使已投资的基础设施能够持续高效运
转,且有效使用寿命越长,单位成本越低。
与此同时,Anthropic 和Meta 正式加入NVIDIA 平台,与此共同代表了全球三分之一
的AI 算力需求。开源模型已接近前沿水平,无处不在。
英伟达是目前全球唯一一个能够运行所有AI 领域——语言、生物学、计算机图形、计
算机视觉、语音、蛋白质与化学、机器人等——所有AI 模型的平台,无论边缘还是云
端,无论何种语言。英伟达架构对所有这些场景均具备通用性,这使我们成为成本最低、
置信度最高的平台。
目前,英伟达60%的业务来自全球前五大超大规模云服务商,剩余40%遍布区域云、
主权云、企业、工业、机器人、边缘计算等各个领域。AI 的覆盖广度本身就是其韧性
所在——这毫无疑问是一次全新的计算平台变革。

Grace Blackwell 与NVLink 72:大胆的架构革新

在Hopper 架构还处于鼎盛时期,我们就决定彻底重新架构系统,将NVLink 从8 路扩
展为NVLink 72,对计算系统进行全面分解重构。Grace Blackwell NVLink 72 是一次
巨大的技术押注,对所有合作伙伴而言都不容易,在此向所有人表示诚挚感谢。
同时,我们推出了NVFP4——不只是普通的FP4,而是一种全新类型的张量核心和计
算单元。我们已经证明,NVFP4 可以在无精度损失的情况下实现推理,同时带来巨大
的性能提升和能效提升,并且同样适用于训练。此外,Dynamo 和TensorRT-LLM 等
一系列新算法相继问世,我们甚至为优化内核而专门投入数十亿美元建造了一台超级计
算机,称之为DGX Cloud。
结果证明,我们的推理性能令人瞩目。来自Semi Analysis 的数据——这是迄今为止最
全面的AI 推理性能评测——显示英伟达在每瓦token 数和每token 成本两个维度上均
遥遥领先。原本摩尔定律可能给H200 带来1.5 倍的性能提升,但我们做到了35 倍。
Semi Analysis 的Dylan Patel 甚至说:”黄仁勋保守了,实际上是50 倍。”他说得没错。
我在此援引他的话:”Jensen sandbagged(黄仁勋保守报数)。”
英伟达的每token 成本是全球最低,目前无人能及。原因正在于极致协同设计(Extreme
Co-design)。
以Fireworks 为例,在英伟达更新全套软件和算法之前,其平均token 速度约为每秒
700 个;更新后接近每秒5,000 个,提升约7 倍。这就是极致协同设计的力量。

AI 工厂:从数据中心到token 工厂

数据中心过去是存储文件的地方,现在它是生产token 的工厂。每一家云服务商、每
一家AI 公司,未来都将以”token 工厂效率”作为核心经营指标。
这是我的核心论点:

  • 纵轴:吞吐量(Throughput)——在固定功率下每秒生成的token 数
  • 横轴:交互速度(Token Speed)——每次推理的响应速度,速度越快,可使用的模
    型越大、context 越长,AI 越智能

token 是新的大宗商品,一旦成熟,将分层定价:

  • 免费层(高吞吐、低速度)
  • 中级层(~每百万token 3 美元)
  • 高级层(~每百万token 6 美元)
  • 高速层(~每百万token 45 美元)
  • 超高速层(~每百万token 150 美元)

与Hopper 相比,Grace Blackwell 在最高价值层提升了35 倍吞吐量,并引入全新层
级。以简化模型估算,将25%功率分别分配给四个层级,Grace Blackwell 可比Hopper
多产生5 倍的收入。

Vera Rubin:下一代AI 计算系统
(播放Vera Rubin 系统介绍视频)
Vera Rubin 是一个完整的、端到端优化的系统,专为智能体(Agentic)工作负载设计:

  • 大型语言模型计算核心:NVLink 72 GPU 集群,处理前填充(Prefill)和KV Cache
  • 全新Vera CPU:专为极高单线程性能设计,采用LPDDR5 内存,兼具卓越能效,是全
    球唯一使用LPDDR5 的数据中心CPU,适合AI 智能体工具调用
  • 存储系统:BlueField 4 + CX 9,面向AI 时代的全新存储平台,全球存储行业100%加
  • CPO Spectrum X 交换机:全球首款共封装光学以太网交换机,已全面量产
  • Kyber 机架:全新机架系统,支持144 块GPU 组成单一NVLink 域,前端计算、后端
    NVLink 交换,形成一台巨型计算机
  • Rubin Ultra:下一代超算节点,竖插式设计,配合Kyber 机架,支持更大规模NVLink
    互联

Vera Rubin 已100%液冷,安装时间从两天缩短至两小时,采用45°C 热水冷却,大幅
降低数据中心冷却压力。这次Satya(纳德拉)已发文确认,首台Vera Rubin 机架已
在微软Azure 上线运行,我为此深感振奋。

Groq 整合:推理性能的极致延伸

我们收购了Groq 团队并获得其技术授权。Groq 是一种确定性数据流处理器
(Deterministic Dataflow Processor),采用静态编译和编译器调度,拥有大量
SRAM,专为推理单一工作负载优化,具备极低延迟和极高token 生成速度。
然而,Groq 的内存容量有限(500MB 片上SRAM),难以独立承载大模型的参数和
KV Cache,限制了其大规模应用。
解决方案正是Dynamo——一套推理调度软件。我们通过Dynamo 将推理管线解聚
(Disaggregate):

  • **前填充(Prefill)及注意力机制的解码(Decode)**在Vera Rubin 上完成(需要大
    量算力和KV Cache 存储)
  • **前馈网络解码(Feed-Forward Network Decode)**即token 生成部分,在Groq
    上完成(需要极高带宽和低延迟)

两者通过以太网紧密耦合,借助特殊模式将延迟减少约一半。在Dynamo 这一”AI 工厂
操作系统”的统一调度下,整体性能提升35 倍,并开辟了NVLink 72 此前无法触及的
全新推理性能层级。
Groq 与Vera Rubin 的组合建议:

  • 若工作负载以高吞吐为主,使用100% Vera Rubin
  • 若大量工作负载为代码生成等高价值token 生成,可引入Groq,建议比例约为25%
    Groq + 75% Vera Rubin

Groq LP30 由三星代工,目前已进入量产,预计Q3 开始出货。感谢三星的全力配合。

推理性能的历史性飞跃
将此前技术进步量化:在2 年时间内,1 吉瓦AI 工厂的token 生成速率将从2,200 万
token/秒提升至7 亿token/秒,提升350 倍。这就是极致协同设计的力量。

技术路线图

  • Blackwell:当前在产,Oberon 标准机架系统,铜缆扩展至NVLink 72,可选光学扩
    展至NVLink 576
  • Vera Rubin(当前):Kyber 机架,NVLink 144(铜缆);Oberon 机架,NVLink 72
    • 光学,扩展至NVLink 576;Spectrum 6,全球首款CPO 交换机
  • Vera Rubin Ultra(即将推出):新一代Rubin Ultra GPU,LP35 芯片(首次集成
    NVFP4),进一步提升数倍性能
  • Feynman(下一代):全新GPU,LP40 芯片(由英伟达与Groq 团队联合打造,集成
    NVFP4);全新CPU——Rosa(Rosalyn);BlueField 5;CX 10;同时支持铜缆和
    CPO 两种扩展方式的Kyber 机架

路线图明确:铜缆扩展、光学扩展(Scale-Up)、光学扩展(Scale-Out)三条路线并
行推进,我们需要所有合作伙伴在铜缆、光纤和CPO 方面持续扩产。

NVIDIA DSX:AI 工厂的数字孪生平台
AI 工厂越来越复杂,但组成它的各类技术供应商过去从未在设计阶段相互协作,直到
在数据中心才”相遇”——这显然不够。
为此,我们创建了Omniverse,以及基于其上的NVIDIA DSX 平台——一个供所有合
作伙伴在虚拟世界中共同设计和运营吉瓦级AI 工厂的平台。DSX 提供:

  • 机架级机械、热学、电气、网络仿真系统
  • 与电网的连接,实现协同节能调度
  • 数据中心内基于Max-Q 的动态功耗和冷却优化

保守估计,这套系统可将能源利用效率提升约2 倍,在我们谈论的规模上,这是非常可
观的收益。Omniverse 从数字地球开始,将承载各种规模的数字孪生,我们正与全球
合作伙伴共同构建人类历史上最大的计算机。
此外,英伟达正在进军太空。Thor 芯片已通过辐射认证,正在卫星中运行。我们正与
合作伙伴开发Vera Rubin Space-1,用于建设太空数据中心。在太空中只能依靠辐射
散热,热管理是核心挑战,我们正集结顶尖工程师攻关。

OpenClaw:智能体时代的操作系统
Peter Steinberger 开发了一款名为OpenClaw 的软件。这是人类历史上最受欢迎的开
源项目,在短短几周内便超越了Linux 三十年的成就。
OpenClaw 本质上是一个智能体系统(Agentic System),能够:

  • 管理资源,访问工具、文件系统和大型语言模型;执行调度、定时任务;将问题逐步分
    解,并调用子智能体;支持任意模态的输入输出(语音、视频、文字、邮件等)。
    用操作系统的语法来描述,它确实就是一个操作系统——智能体计算机的操作系统。
    Windows 让个人计算机成为可能,OpenClaw 让个人智能体成为可能。
    每一家企业都需要制定自己的OpenClaw 战略,正如我们都需要Linux 策略、HTML
    策略、Kubernetes 策略一样。

企业IT 的全面重塑
OpenClaw 之前的企业IT:数据和文件进入系统,流经工具和工作流,最终变成供人
类使用的工具。软件公司创建工具,系统集成商(GSI)和咨询公司帮助企业使用这些
工具。
OpenClaw 之后的企业IT:每一家SaaS 公司都将转变为AaaS(Agentic as a Service,
智能体即服务)公司——不只是提供工具,而是提供专精特定领域的AI 智能体。
但这里有一个关键挑战:企业内部的智能体可以访问敏感数据、执行代码、与外部通信。
这在企业环境中必须得到严格管控。
为此,我们与Peter 合作,将安全性融入企业级版本,推出了:

  • NeMo Claw(参考设计):基于OpenClaw 的企业级参考框架,集成NVIDIA 的全套
    智能体AI 工具包
  • Open Shield(安全层):已集成至OpenClaw,提供策略引擎、网络护栏、隐私路由,
    确保企业数据安全
  • NeMo Cloud:可下载使用,并与所有SaaS 企业的策略引擎对接

这是企业IT 的文艺复兴,一个原本2 万亿美元规模的产业,即将成长为数万亿美元规
模,从提供工具转向提供专业化的AI 智能体服务。
我完全可以预见:未来,公司里的每一位工程师都将拥有年度token 预算。他们年薪
可能是几十万美元,我会额外给他们相当于薪资一半的token 配额,让他们的产出放
大10 倍。”入职附带多少token 配额”已经成为硅谷的新晋招聘话题。
每一家企业未来都将既是token 的使用者(供工程师使用),也是token 的生产者(为
其客户提供服务)。OpenClaw 的意义不可低估,它和HTML、Linux 一样重要。

NVIDIA 开放模型倡议
在自定义智能体(Custom Claw)方面,我们提供了NVIDIA 自研的前沿模型:

模型领域模型名称
大型语言模型Nemotron
世界基础模型(World Foundation Model)Cosmos
通用人形机器人模型GROOT
自动驾驶Alpamayo
数字生物学BioNeMo
AI 物理Phys-AI

我们在每一个领域都处于技术前沿,并承诺持续迭代——Nemotron 3 之后有
Nemotron 4,Cosmos 1 之后有Cosmos 2,Groq 也将迭代到第二代。
Nemotron 3 在OpenClaw 中名列全球三大最佳模型之列,处于前沿水平。Nemotron
3 Ultra 将成为有史以来最强的基础模型,支持各国构建主权AI。
今天,我们宣布成立Nemotron 联盟,投资数十亿美元推进AI 基础模型研发。联盟成
员包括:BlackForest Labs、Cursor、LangChain、Mistral、Perplexity、Reflection、
Sarvam(印度)、Thinking Machines(Mira Murati 的实验室)等。一个又一个企
业软件公司加入,将NeMo Claw 参考设计和NVIDIA 智能体AI 工具包整合到自身产
品中。

物理AI 与机器人
数字智能体在数字世界中行动——撰写代码、分析数据;而物理AI 则是具身化的智能
体,也就是机器人。
本次GTC 共有110 款机器人亮相,几乎囊括了全球所有机器人研发企业。英伟达提供
三台计算机(训练计算机、仿真计算机、机载计算机)和完整的软件栈及AI 模型。

  • 自动驾驶:自动驾驶的”ChatGPT 时刻”已经到来。今天,我们宣布四家新合作伙
    伴加入英伟达RoboTaxi Ready 平台:比亚迪、现代、日产、吉利,合计年产量1,800
    万辆。加上此前的奔驰、丰田、通用,阵容进一步壮大。我们同时宣布与Uber 达成重
    大合作,将在多个城市部署并接入RoboTaxi Ready 车辆。
  • 工业机器人:ABB、Universal Robotics、KUKA 等众多机器人企业与我们合作,
    将物理AI 模型与仿真系统相结合,推动机器人在全球制造产线的落地。
  • 电信:卡特彼勒(Caterpillar)和T-Mobile 也在其列。未来,无线基站将不再只
    是一个通信节点,而是一个NVIDIA Aerial AI RAN——能够实时感知流量、调整波束
    成形,实现节能增效的智能化边缘计算平台。

特别环节:Olaf 机器人亮相
(播放Disney Olaf 机器人演示视频)

黄仁勋: 雪人登场!Newton 运行正常!Omniverse 也运行正常!Olaf,你好吗?
Olaf: 见到你我真的太开心了。
黄仁勋: 是的,因为是我给了你计算机——Jetson!
Olaf: 那是什么?
黄仁勋: 就在你的肚子里。
Olaf: 太神奇了。
黄仁勋: 你是在Omniverse 里学会走路的。
Olaf: 我喜欢走路。这比骑驯鹿仰望美丽的天空好多了。
黄仁勋: 这正是因为物理仿真——基于NVIDIA Warp 运行的Newton 求解器,这是
我们与Disney 和DeepMind 联合开发的,让你能够适应真实的物理世界。
Olaf: 我正想说这个。
黄仁勋: 这就是你聪明的地方。我是雪人,不是雪球。
黄仁勋:你能想象吗?未来的迪士尼乐园——所有这些机器人角色在园区里自由漫步。
不过说实话,我以为你会更高一些。我从没见过这么矮的雪人。
Olaf: (不置可否)
黄仁勋: 来帮我结束今天的演讲好吗?
Olaf: 太棒啦!

主题演讲总结
黄仁勋:今天,我们共同探讨了以下核心主题:

  • 推理拐点的到来:推理已成为AI 最核心的工作负载,token 是新的大宗商品,推理性
    能直接决定收入
  • AI 工厂时代:数据中心已从文件存储设施演变为token 生产工厂,未来每家公司都将
    以”AI 工厂效率”来衡量自身竞争力
  • OpenClaw 智能体革命:OpenClaw 开启了智能体计算时代,企业IT 正在从工具时代
    走向智能体时代,每家企业都需要制定OpenClaw 战略
  • 物理AI 与机器人:具身智能正在规模化落地,自动驾驶、工业机器人、人形机器人共
    同构成物理AI 的下一个重大机遇

感谢大家,GTC 愉快!

© 版权声明

相关文章

暂无评论

暂无评论...