▲点击订阅,抓住风口
5 月 3 日,《The Information》爆料:Nvidia 正加班赶制第三代“中国特供”GPU,以避开美国最新出口红线。
在美国政府三令五申、不断加码对华高科技出口限制的背景下,为何要“顶风作案”,执意为中国市场开发定制芯片?
The information文章

这背后,是为了挽回最高可达 55 亿美元的减值准备?还是为了应对华为昇腾等本土对手的步步紧逼?
答案是:关乎新一轮全球 AI 算力版图的关键抉择。
关于AI趋势的详细分析,王煜全前哨科技特训营都有分析,今天我们一起深入剖析英伟达为什么放不下中国市场,这背后有哪些AI新趋势,暴露英伟达的哪些隐忧。
现在加入前哨科技特训营,还有五一限时福利,千万不要错过。
老黄为何执着?
要理解英伟达为何在美国政府重压之下,依然要为中国市场开发专用芯片,需要把握两大基本逻辑:中国市场难以割舍的战略分量,以及 AI 产业发展重心的转移。
首先,中国市场在英伟达营收占比本就不小,AI 时代还有巨大的增长潜力。根据公开数据看,在 2022 年美国芯片禁令前,中国市场占英伟达营收的 21%,禁令之后占比依然达到 13%。
更为重要的是,根据 The Information 报道,过去两年英伟达中国市场的收入增长了 70%,即便面临禁令限制,依然显示出强劲的增长势头。彻底放弃中国市场,对英伟达而言损失难以弥补。
其次,更深层的驱动力,源自 AI 产业价值链正从“训练为王”转向“推理主导”。
范式转移,AI进入下一阶段
上半场,业界不惜成本投入大规模训练,以突破模型能力的边界。下半场,价值实现的关键在于如何将这些强大的模型大规模、低成本、高效率地部署到各种应用中去(即推理)。
我们可以简单把 AI 大模型的应用分为这么两个阶段:
训练阶段: 好比建造超级工程的基础设施,需要消耗顶级算力、海量数据和巨额投资,目的是构建强大的基础模型(比如 GPT-4o、Claude 3 系列、DeepSeek R1)。
英伟达的高端 GPU (如 H100) 在此阶段拥有近乎垄断的优势。
推理阶段:如同城市交通网络建成后,支撑无数车辆(AI 应用、服务、Agent)日常高效运行。
这里的核心挑战不再仅仅是单点峰值性能,比的是能否支撑海量并发、持续在线,比的是谁成本更低。
随着 AI Agent 等应用爆发,推理算力需求预计将数倍于训练,“能效比”(Performance per Watt / Performance per Dollar) 成为决定 AI 能否真正惠及千行百业、实现规模化价值的关键瓶颈。
\"要让 AI 发挥我们期望的作用,推理成本必须大幅下降。我们将其视为我们的使命和责任。\" - 亚马逊CEO Andy Jassy(5月1日)
推理时代,CUDA 的隐忧
CUDA 作为英伟达最强大的护城河,深深构筑在 AI 训练领域。训练任务通常需要极致的并行计算能力、庞大的显存和高速互联,开发者生态、成熟库(如 cuDNN)和框架(如 PyTorch, TensorFlow 对 CUDA 的深度优化)也至关重要。
离开 CUDA,搞大规模、高性能的 AI 训练几乎是不可想象的,迁移成本极高。
然而,在推理端,情况有所不同:
需求多样: 推理任务种类繁多,从延迟敏感的实时交互到吞吐量优先的离线批处理,并非所有场景都需要 H100 级别的算力。
成本敏感: 大规模推理部署对 TCO(总体拥有成本)极其敏感,能耗是重要组成部分。
生态开放:推理部署更倾向于使用标准化的模型格式(如 ONNX)和推理引擎(如 ONNX Runtime, TensorRT, OpenVINO 等),这些引擎正努力支持更多硬件后端,包括 CPU、各类 NPU/ASIC,甚至其他品牌的 GPU。
前哨特训营2023年PPT报告

这就意味着,虽然英伟达 GPU + TensorRT 依然是高性能推理的选择之一,但 CUDA 在推理端的“锁定”效应远不如训练端那么强。
这就为英伟达的竞争对手们创造了进入的缝隙。
芯片禁令为竞争对手留下空间
这几天微软、谷歌、亚马逊、Meta 的财报会都将提升 AI 效率、降低推理成本(特别是能耗)置于核心地位。
谷歌在财报会中透露 AI Overviews 功能月活跃用户超 15 亿;微软在最新财报电话会中提到,其平台单季度处理的 token 总量已超过 100 万亿 (quadrillion) 级别,主要由 Copilot 等服务驱动。
面对海量推理需求带来的成本压力,大型科技公司正全力投入自研芯片和系统优化。
谷歌发布第七代 TPU \"Ironwood\",宣称推理性能和能效比提升近 2 倍。
亚马逊推出 Trainium 2 (训练) 和 Inferentia (推理) 系列芯片,声称其自研方案相比通用 GPU 可提供 30-40% 的性价比优势(含能耗考量)。
Meta 也推出了其第二代自研 AI 推理芯片 MTIA v2。
微软 CFO Amy Hood 在财报会议上表示,通过模型优化等手段,已将 AI 服务的 token 成本减半。
可惜这些巨头的优化能力毕竟有限,自研芯片普遍落后英伟达一代以上,更重要的是他们的芯片都是自用,不能让整个市场为自己平摊研发和制造费用,一时半会难以和英伟达竞争。
事实也如此,亚马逊、微软等在财报中都提及了 AI 算力供不应求的现状,这使得英伟达在短期内依然是他们不得不倚重的主要供应商,享受着需求的“甜蜜期”。
但是,在中国却是另一幅光景,芯片禁令切割出去的无疑是一片 AI 应用的巨量市场。年初DeepSeek 火爆全网之后,各大平台纷纷上架 R1 模型,结果仍然是上架一个宕机一个,需求始终无法填满。
如果这种短期爆款不能作为印证,对比微软单季度超100万亿 token 消耗量,有分析师透露字节跳动的豆包 APP 日均消耗 token 超过10万亿,10 天时间就和微软的季度消耗等量。
这背后反映了中国市场巨大的潜力,而这里正在因为外力成为英伟达无法干预的领域。
参与过市场竞争的人都应该知道,一个无法填满的巨大的市场,它天然就是竞争对手成长的乐土。
连锁反应:全新的芯片格局会到来吗?
英伟达的中国特供策略背后,是全球 AI 发展趋势叠加产业冲突的结果。
全球范围内,对推理成本和能效比的严苛要求,虽然让科技巨头大力推进自研 AI 芯片(ASIC/NPU),创造了一些新的生态位。
英伟达尚能通过技术进步和产能优势与之竞争,借助当下的市场霸主地位及时掌握产业一线的动态,快速调整适应变化,继续保持领先。
面对芯片禁令强行划分出的中国市场,则是对英伟达未来 5 年战略布局的一次大考。英伟达放不下的不只是眼下的利润,更是对下一轮 AI 格局的掌控力。
产业生态中的博弈从来不是简单的“拼刺刀”,短期的市场份额或技术领先固然重要,但只有深刻理解并顺应整个产业格局的结构性变化才能真正掌握未来的发展趋势。
AI 产业正在经历从训练到推理的重心转移,从性能至上到效率优先的价值重塑,结合地缘因素催生的区域市场分化,在这场算力重构的浪潮中,战略远见和适应能力,将比以往任何时候都更加重要。
想更深入了解 AI 算力市场的最新动态与未来格局?
欢迎长按下方二维码,加入前哨科技特训营,王煜全每周四和你分享最新、最有深度的产业洞察。
现在加入还有 5 月限时福利,早买早上车~
↓长按图片扫码报名, 先人一步,领先一路

↓¥399,掌握王煜全AI产业预测精华(iOS用户请在电脑端打开)

此外,我们还为您准备了一份清单
“世界大学五大学科领域top10”
