NVIDIA 最难写的地方,在于它起初根本不是一家“AI 公司”

这也是它最厉害的地方。

今天人们谈 AI,往往会把 NVIDIA 当成时代基础设施,甚至当成这轮竞赛里最硬的底盘。但如果把时间线拉回去,会发现它最初并不是围绕 AI 叙事成长起来的。它是从图形计算、并行计算、GPU 架构一路长出来,后来才在深度学习时代突然显出那种近乎压倒性的优势。

所以,NVIDIA 的 AI 发展史真正值得写的,不是“赶上了 AI”,而是它如何把为别的问题准备的能力,逐步重组为一整套 AI 工业系统。

Mermaid 图一:NVIDIA 从硬件公司走向 AI 工业底盘的路径

第一阶段:CUDA 才是 NVIDIA 真正的 AI 起点

NVIDIA 官方历史时间线写得很直白:2006 年,CUDA 让 GPU 的并行处理能力向科学和研究开放。很多人会把这看成一段古老技术史,但如果今天回头看,CUDA 几乎就是 NVIDIA 成为 AI 平台公司的真正起点。

因为 AI 时代真正稀缺的,不只是芯片本身,而是围绕芯片形成的完整开发环境。谁能让开发者、研究者和企业更容易调用底层并行计算能力,谁才更可能把硬件优势转成持续的平台优势。

2012 年 AlexNet 引爆现代深度学习后,NVIDIA 的位置突然变得极其关键。官方时间线甚至把这一年直接写成 “sparks the era of modern AI”。这不是夸张。因为在那之后,GPU 不再只是图形或高性能计算里的一个加速器,而成了训练深度神经网络的核心工具。

很多公司看到的是模型突破,NVIDIA 看到的则是:一旦 AI 成为主流计算范式,CUDA 就会从技术细节变成行业地基。

第二阶段:2016,DGX-1 让 NVIDIA 不再只卖卡,而开始卖 AI 系统

2016 年 4 月,NVIDIA 发布 DGX-1。官方新闻稿直接把它定义为全球首个深度学习超级计算机。这个节点非常关键,因为它意味着 NVIDIA 开始从单一部件供应商,变成整机系统提供者。

过去如果你要做 AI 训练,需要自己采购 GPU、自己做集成、自己调软件栈。DGX-1 则在说:我们不只卖芯片,我们可以把训练系统整包交付给你。这个动作看起来像产品线扩展,实际上是商业身份变化。

一旦整机和完整软件栈都由 NVIDIA 打包,客户买到的就不再只是硬件性能,而是一种更快进入 AI 生产状态的能力。这让 NVIDIA 的角色从“上游零件公司”向“AI 解决方案供应商”迈了一大步。

第三阶段:从 DGX 到 SuperPOD,再到云合作,NVIDIA 把系统卖成了基础设施

2020 年,NVIDIA 推出 DGX SuperPOD,官方将其描述为可快速部署的整套 AI 基础设施方案。到这一步,NVIDIA 已经不只是卖一台箱子里的超级计算机,而是在卖可成规模复制的数据中心级 AI 基础设施。

再往后,和 AWS 的战略合作又把这条路线继续推进。2023 年 11 月,NVIDIA 与 AWS 宣布扩大战略协作,涵盖新一代超算基础设施、软件和生成式 AI 服务。这个节点说明,NVIDIA 正在把自己的角色从企业本地机房继续延伸到云端。

换句话说,NVIDIA 卖的东西越来越不像传统硬件。它卖的是一整套从训练到部署、从本地到云、从研究到企业落地都能复用的 AI 工业标准件。

Mermaid 图二:今天的 NVIDIA 已经覆盖 AI 工业栈的多个层次

第四阶段:2024,NIM 和 AI Factory 说明 NVIDIA 不满足于只留在硬件层

2024 年是另一个很容易被忽略,但其实意义重大的节点。

一方面,NVIDIA 发布了生成式 AI 微服务,也就是后来被反复提及的 NIM 路线。官方表述非常直接:它希望开发者能更快构建和部署 AI copilots。这说明 NVIDIA 正在进入软件与推理部署层,不再满足于只做底层算力提供者。

另一方面,NVIDIA 还开始高频使用 AI Factory 这个概念。2024 年 6 月的官方新闻稿甚至把“为下一次工业革命建设 AI Factories and Data Centers”写成主题。这是一种非常聪明的话语升级。因为当你把数据中心称为 AI factory,你就不再只是卖设备,而是在定义客户应该怎样理解未来的生产系统。

这套语言会反过来巩固 NVIDIA 的产业位置。客户不是在买一批 GPU,而是在建设生产 intelligence 的工厂。谁最会定义工厂该怎么建,谁就更容易成为这一轮基础设施升级的总包角色。

为什么 NVIDIA 今天看起来像一家“几乎到处都在场”的公司

因为它已经不在单点竞争,而在整栈竞争。

它有芯片性能优势,但不只靠芯片。它有 CUDA 生态,但也不只靠开发框架。它有 DGX 和 SuperPOD,也继续往云合作、微服务、推理部署、AI 工厂设计语言上走。于是客户越往真实生产靠近,越难绕开 NVIDIA。

这也是它和很多半导体公司的根本差异。别人可能卖的是一代又一代硬件,NVIDIA 卖的则越来越像一个持续扩张的计算体系。

结尾:今天再写 NVIDIA,最好别再把它只叫作“GPU 公司”

这个称呼已经太窄了。

如果按公司史来写,NVIDIA 至少完成了三次跳跃。

  • 第一次,是用 CUDA 把 GPU 从图形硬件变成通用并行计算平台。
  • 第二次,是用 DGX 和 SuperPOD 把平台卖成整套 AI 训练系统。
  • 第三次,是用 NIM 和 AI Factory 把自己推进到部署、运营和数据中心话语层。

所以今天的 NVIDIA,不只是 AI 热潮里的“卖铲子的人”。更准确的说法是,它已经在尝试掌握从铲子、工地、施工标准到部分运营工具的整条链路。

这就是为什么 NVIDIA 的地位看起来越来越像工业底盘,而不只是某个上游供应商。AI 公司在上面训练模型、做产品、做代理,但那块越来越厚重的底板,很多时候仍然写着 NVIDIA。