
CES 2026 上,黄仁勋的 keynote 信息量很大,但真正值得反复咀嚼的,并不是某一张炫技的算力图,而是 NVIDIA 正在系统性重塑 AI 的经济学模型。
如果只看“Blackwell 比 Hopper 强 10 倍、Rubin 再强 10 倍”,那只是表层信息;真正的核心,是 AI 正在从“算力竞赛”转向“成本竞赛”。
一、从“性能”转向“token 成本”,是一次明确的叙事切换
黄仁勋在这次演讲中反复强调的,并不是 FLOPS,而是一个过去一年很少被公开场合反复讲的指标:
生成一个 token 的成本
在 Rubin 架构下,token 成本被压缩到 Blackwell 的 十分之一。
这件事的意义远大于“又一代芯片更强了”,因为:
- 性能提升 ≠ 商业化成功
- 成本下降 = 使用场景扩张
只有当 token 成本持续下降,AI 才能真正从“少数大模型公司的工具”,走向:
- 企业级部署
- AI Agent 常态化运行
- 长上下文、实时推理
- 多模型并行与个性化模型
换句话说,这不是“更强的 AI”,而是 更便宜、可规模化的 AI。
二、NVIDIA 已不再只是“卖芯片”,而是在卖“完整系统”
黄仁勋明确说了一句话:
NVIDIA 现在构建的是整个系统,AI 是一个 full stack。
这句话背后至少包含三层含义:
1. NVIDIA 正在压缩产业链的中间环节
过去的路径是:
GPU → OEM → 云厂商 → 开发者/企业
现在正在变成:
GPU + 网络 + 存储 + 软件 + 调度 + 参考架构 → 客户
这意味着 NVIDIA 不再满足于中游角色,而是在提高生态绑定度和迁移成本。
2. NVIDIA 的真正对手已经发生变化
它面对的,不只是传统意义上的芯片竞争者,而是:
- 云厂商的自研算力体系
- 大模型公司的软硬件协同
- 国家级算力与自主可控体系
当 NVIDIA 做“全栈”,整个产业也会被迫思考一件事:
是否要降低对 NVIDIA 的系统性依赖?
3. 全栈是护城河,但也是系统性风险放大器
全栈的好处很明显:
- 生态黏性更强
- 客户锁定更深
- 规模效应更大
但同样意味着:
- 更重的资本开支
- 更强的周期属性
- 对能源、政策、宏观环境的依赖显著上升
三、“10 倍 × 10 倍”成立的前提,其实非常苛刻
这套逻辑要成立,有几个隐含前提必须同时满足:
1. AI 需求必须持续指数级扩张
Rubin 的意义,建立在一个假设之上:
未来 2–3 年,AI 的训练与推理需求仍将持续放大。
一旦出现:
- 企业 ROI 不及预期
- 应用侧创新放缓
- Agent 没有如预期爆发
那么“10 倍算力”,可能会阶段性变成 结构性过剩。
2. 能源与数据中心不是配角,而是核心约束
黄仁勋反复提到“energy efficiently”,并不是客套话。
现实世界里,真正的瓶颈是:
- 电力供应
- 数据中心审批
- 能源价格
- ESG 与政策约束
如果能源成本无法同步下降,token 成本的逻辑会被明显削弱。
3. 成功,本身正在催生“去 NVIDIA 化”
当 NVIDIA 的能力足够强,产业的自然反应一定是:
- 云厂商加强自研
- 国家体系强调独立可控
- 大模型公司优化软硬件协同
这并不是短期利空,而是一种长期、结构性的博弈关系。
四、从“材料降级传闻”反看 NVIDIA 的系统逻辑
如果把 CES 的表态,与近期关于高端 PCB 材料可能“降级”的传闻放在一起看,会发现它们在逻辑上是自洽的。
当 NVIDIA 反复强调的是:
成本,而不是性能极限
那么:
- 如果某些高端材料“性能超标、性价比不优”
- 被系统性替换,并不意外
这并不必然是利空,而更像是 系统级成本优化的自然结果。
五、我的判断:这是长期逻辑,但不是短周期安全逻辑
综合来看,我的判断是:
- 这是一套逻辑完整、目标清晰、极具长期说服力的产业叙事
- 它试图把 AI 从“资本密集型竞赛”,推向“全民化基础设施”
但同时也必须清醒地看到:
- 这套逻辑高度依赖需求、能源与政策的协同
- 一旦某个关键变量失配,调整也会是系统性的
NVIDIA 正在做一件难度极高、但一旦成功将极具历史意义的事情。
这不是短期的安全逻辑,而是一个需要时间、耐心和波动承受能力的长期判断。