凌晨的GTC舞台上,黄仁勋再次穿着那件熟悉的黑色皮衣登场。但这一次,他讲的已经不只是GPU,不只是大模型,甚至不只是AI。他试图定义的是——下一个十年的计算范式。

在这场被全球科技圈刷屏的演讲中,黄仁勋抛出了几个极具冲击力的判断:
- 推理已成为AI时代最核心的工作负载;
- 数据中心正在从“存储中心”变成“token工厂”;
- 未来AI基础设施市场规模将走向1万亿美元;
- 每家公司都需要自己的智能体战略;
- 机器人与物理AI,正在成为继生成式AI之后的下一场革命。
如果说过去两年,市场关注的是“谁训练出了最强模型”,那么从这场GTC开始,英伟达试图把行业焦点彻底切换到另一个问题:谁能够以最低成本、最高效率、最大规模,生产token。
这就是黄仁勋口中的——万亿美元推理时代。
一、GTC的真正主题,不是芯片,而是“新计算时代的操作系统”
黄仁勋一开场就强调:GTC是一场技术大会。但如果把整场演讲听完,你会发现,这场大会真正讨论的不是某一块芯片,也不是某一个模型,而是一套完整的方法论:英伟达正在围绕三大平台,重构AI时代的基础设施底座:
- CUDA-X平台:面向各行业的加速计算库
- 系统平台:从芯片、服务器、网络到数据中心的整套架构
- AI工厂平台:把数据中心升级成大规模生产token的“工厂”
这意味着,英伟达要做的已经不是“卖GPU”,而是成为整个AI时代的底层操作系统提供者。
黄仁勋反复强调一个词:平台(Platform)。因为在他看来,AI竞争的终局,从来不是单点突破,而是技术、平台和生态的联动飞轮。
二、CUDA二十年:英伟达最深的护城河,不是芯片,是生态
今年是CUDA诞生二十周年。黄仁勋用了很长篇幅回顾CUDA,因为在他看来,CUDA才是英伟达今天最核心的战略资产。
很多人看到的是GPU性能、HBM带宽、NVLink互联,但黄仁勋真正强调的是另一件事:英伟达今天100%的战略逻辑,都建立在“庞大的装机量”和“持续加速的开发者飞轮”之上。
这个飞轮的路径非常清晰:装机量扩大→吸引开发者→诞生新算法→形成新市场→带来更多客户→继续扩大装机量
经过二十年的积累,CUDA已经深度融入全球技术栈:
- 拥有数千种工具、编译器、框架和库
- 开源社区有数十万个相关项目
- 覆盖几乎所有主流云平台、OEM厂商和行业场景
- 全球已有数亿块GPU和计算系统运行在CUDA之上
这意味着什么?意味着英伟达卖出的不是一次性硬件,而是一种可持续升值的计算资产。
黄仁勋举了一个极具代表性的例子:六年前发布的Ampere架构GPU,在云端的价格反而还在上涨。原因很简单:不是硬件本身越来越值钱,而是它所连接的软件生态越来越强大,能够运行的应用越来越多,单位计算成本反而随着软件迭代不断下降。
这也是英伟达最可怕的地方:别人卖芯片,英伟达卖的是长期复利型基础设施。
三、从GeForce到AI:英伟达押对了三次时代机会
黄仁勋在演讲中回顾了英伟达过去25年的技术演进路线,这其实也是一条非常典型的科技公司跃迁路径:
1. GeForce时代:让加速器变得可编程
最早,英伟达通过GeForce和可编程着色器,完成了图形计算时代的基础积累。
2. CUDA时代:把GPU从图形芯片变成通用计算平台
五年后,英伟达重注CUDA。哪怕当时公司财力并不宽裕,也押上大部分利润,坚持了13代产品、20年迭代。
3. RTX+AI时代:把图形学与AI彻底融合
再往后,英伟达推出RTX,把光线追踪和AI引入图形渲染,开始走向“神经渲染”的新阶段。
黄仁勋展示的DLSS 5,本质上就是这一逻辑的延续:把确定性的3D图形世界,与概率性的生成式AI结合起来。
这是一个极其关键的信号。因为黄仁勋想表达的不只是“游戏画面更逼真了”,而是一个更大的产业判断:未来几乎所有行业,都会走向“结构化数据+生成式AI”的融合范式。从图形,到企业数据,到工业仿真,到自动驾驶,再到机器人,这套方法将被反复复制。
四、AI真正的下一站:不是训练,而是推理
整场演讲中,最重磅的判断之一就是:推理,已经成为AI时代最核心的工作负载。
黄仁勋把过去两年的AI发展,总结为三个关键拐点:
第一阶段:ChatGPT。
AI从“识别与理解”,进入“生成内容”的时代。
第二阶段:Reasoning AI。
以o1为代表,AI开始具备反思、规划、拆解问题的能力,AI不再只是“回答问题”,而是能够“思考问题”。
第三阶段:Agentic AI。
以Claude Code这类系统为代表,AI开始真正执行任务:读文件、写代码、编译、测试、评估、调用工具、自动迭代。也就是说,AI的能力已经从感知→生成→推理→行动,完成了一次质变。
而一旦AI进入“推理”和“行动”阶段,算力需求就不再是线性增长,而是指数级爆发。
黄仁勋给出了一个极其夸张但又极具说服力的数据:过去两年,推理所需的计算量增长了约10,000倍,使用量增长了约100倍。他甚至直言:过去两年,整个行业的计算需求增长了100万倍。
这就是为什么,AI产业的竞争中心正在从“训练模型”转向“推理效率”。因为未来真正持续产生商业价值的,不是一次性的训练,而是持续不断的推理调用、智能体执行与token生成。
文章内容仅供参考,不构成投资建议,投资者据此操作风险自负。转载请注明出处:天府财经网





