当前位置:首页 > 科技资讯 > 正文

黄仁勋游说成功对华芯片销售解禁,但面临科技巨头自研芯片围剿

经过数月的密集游说,黄仁勋终于实现了他的关键目标。

本周,美国政府正式批准英伟达向中国及其他“经批准客户”销售高端H200 GPU芯片,但需缴纳25%的销售提成。这一提成比例同样适用于AMD、英特尔等美国芯片巨头。不过,英伟达最新的Blackwell及未来Rubin系列GPU仍被禁止出口。

这标志着黄仁勋长达数月的游说努力取得成效。过去半年,他频繁造访佛罗里达与华盛顿,随特朗普总统出访并出席国宴,还向白宫宴会厅建设工程捐款,只为这一刻。就在上周,他再次赴白宫会见总统,最终如愿以偿获得禁运令解锁。

受此利好消息推动,英伟达股价盘后应声上涨。由于美国政府连续多道芯片禁运令限制,过去两年英伟达逐步失去了快速增长的中国市场,AI GPU市场份额从原先的95%大幅下滑。在其核心数据中心业务中,中国市场的营收占比也从四分之一急剧萎缩。

心急如焚的黄仁勋两个月前公开抱怨:“我们已经失去了全球最大市场之一,在中国市场完全出局,份额归零。”即便向美国政府缴纳四分之一提成,对英伟达业绩仍意义重大,因为中国AI GPU市场规模今年预计达200亿至300亿美元(中商产业研究院数据)。

然而,黄仁勋在努力重新打开一个市场的同时,或许还需担忧后方。因为群狼已围了上来:他们最大的AI芯片客户,即谷歌、亚马逊、微软这三大超大规模云服务商,正加速普及自研芯片。

英伟达无疑是生成式AI时代的领军企业。在AI芯片这个万亿级赛道中,英伟达凭借压倒性的性能优势和CUDA平台主导市场,其GPU产品线占据八成以上份额。英伟达也因此成为全球最具价值的上市公司,市值一度突破5万亿美元。

尽管英伟达数据中心业务营收高达1300亿美元(最近财年),却存在巨大隐患:客户集中度过高,过度依赖几大AI巨头。其中,前两大客户营收占比39%,前三大客户营收占比高达53%。

据媒体推测,黄仁勋的前五大客户正是微软、谷歌、亚马逊、Meta和甲骨文。而这前三大巨头正加速转用自研芯片,同时拉拢第四大客户。这些自研芯片的部署不仅会直接减少英伟达芯片订单,更可能在公开市场构成威胁。

黄仁勋游说成功对华芯片销售解禁,但面临科技巨头自研芯片围剿 英伟达 黄仁勋 AI芯片 自研芯片竞争 第1张

AWS低成本推理杀手

上周在拉斯维加斯召开的re:Invent年度开发者大会上,全球云计算领头羊亚马逊AWS发布了一系列重磅产品,清晰展示了在AI热潮中占据主导并推动行业变革的雄心。

最引人注目的是亚马逊新一代自研AI芯片:Trainium 3。多家媒体将其誉为“对英伟达的直接宣战”。这是亚马逊自2022年以来的第三代AI芯片,主打低成本与推理两大优势。

AWS CEO马特·加曼宣布,第三代芯片训练速度比前代快4倍,成本减半,特别适合亚马逊Nova 2模型家族部署,支持百万芯片级集群。与英伟达相当的GPU系统相比,Trainium3可节省50%训练费用。现场演示显示,Trainium3在Llama 3.1训练中,仅需24小时完成相当于H100集群一周的任务。

低成本是最大卖点,AWS官方将Trainium3定位为英伟达GPU的低成本替代品。他们表示,对于愿意采用其Neuron软件栈和Trainium实例的客户,基于Trainium的实例可将大型模型的训练成本(通常包括推理成本)比同类GPU集群降低高达50%。

亚马逊此次大会的发布相当于表明态度:要用自研芯片、自研模型、私有化部署以及智能体全家桶,把从训练到推理、从云端到本地、从通用模型到定制模型的整条AI赛道牢牢掌控。云计算巨头AWS明确自研方向,这无疑将对AI基础设施市场未来走向产生重大影响。

目前AWS在云计算市场仍保持巨大领先优势,为各类客户提供云端AI算力,支持他们自由选择各种大模型。AWS市场份额超过三成,而排名二三位的微软与谷歌市场份额分别为20%和16%(基于Synergy Research统计数据)。

从Anthopic到OpenAI再到Meta,众多AI巨头与创业公司都在广泛使用亚马逊的AWS云服务。上个月,OpenAI宣布与AWS签署合作协议,七年采购价值380亿美元的AI基础设施服务。AWS还强调,Anthropic等AI初创公司已转向Trainium,节省了超过三成预算。

谷歌拉到Meta大客户

谷歌是行业最早自研芯片的巨头,其第一代TPU早在2016年发布,已成为AI基础设施领域挑战英伟达的行业标杆。上个月,谷歌在Cloud Next云计算大会上发布第七代TPU v7 Ironwood,进一步让英伟达感受到压力。

黄仁勋游说成功对华芯片销售解禁,但面临科技巨头自研芯片围剿 英伟达 黄仁勋 AI芯片 自研芯片竞争 第2张

Ironwood的核心亮点是性能跃升:单芯片FP8计算达4.6 PFLOPS(每秒1000万亿次浮点计算),比第五代TPU提升10倍,是第六代TPU的4倍。

谷歌强调Ironwood专为“高吞吐、低延迟”推理优化,适用于Gemini 3等多模态模型。相比英伟达王牌Blackwell,Ironwood在能效上领先20%,功耗仅300W/芯片。这得益于其systolic array架构和自定义互连,可专攻矩阵乘法等AI核心运算。

谷歌在TPU演进上稳步前进:从v1的纯训练芯片,到v7原生支持FP8,谷歌已覆盖从边缘设备(Edge TPU)到超大规模Pod的全栈。从战略上看,谷歌的TPU不仅是硬件,更是云生态的“杀手锏”。

对英伟达来说,谷歌带来的威胁日益明显。2025年,谷歌的AI芯片市场份额预计已达8%,尤其在占AI算力80%的推理领域。SemiAnalysis分析称,Ironwood“显著缩小了与NVIDIA旗舰的浮点计算性能差距”。

谷歌声称,使用TPU可将训练成本降低40%,吸引了Meta等第三方客户。据媒体报道,Meta计划在2027年部署谷歌TPU,绕过英伟达芯片。谷歌Ironwood服务器将交由富士康代工。而Meta正是英伟达AI芯片的第四大客户。这一打击是双重的。

尽管黄仁勋以乐观口吻应对谷歌TPU带来的威胁,强调英伟达的多平台兼容与供应链优势,认为巨头自研芯片不会动摇英伟达的“护城河”(生态和软件栈),但他也不得不承认市场竞争会让投资者担忧。

微软抢不过巨头量产延误

相比亚马逊和谷歌在自研芯片方面的稳步推进和大规模部署,微软在这一领域暂时还在交学费,遭受了跳票挫折。微软自研芯片首代Maia 100于2024年推出,专为自家Azure AI优化,今年开始大规模部署。但原本计划今年发布的Maia 200(代号Braga)的大规模量产已推迟至2026年。

今年10月,微软宣布Maia 100已部署于Azure数据中心,支持OpenAI模型训练。这是微软与博通合作开发的芯片,预计比英伟达H100芯片成本低40%。而未来三代(代号分别为Braga、Braga-R和Cobalt)计划覆盖训练、推理和边缘。

黄仁勋游说成功对华芯片销售解禁,但面临科技巨头自研芯片围剿 英伟达 黄仁勋 AI芯片 自研芯片竞争 第3张

Maia芯片的最大优势是与微软Azure的原生态结合——集成DirectML框架,吸引企业客户私有化部署。Maia系列聚焦多模态AI,例如突出微软Copilot的语音和视觉处理,单芯片BF16性能达2 PFLOPS。

微软CTO凯文·斯科特表示,公司未来将“主要使用自家芯片”,目标减少对英伟达芯片的严重依赖。但这一目标却因Maia量产推迟而受挫。根据媒体报道,Maia 200量产延误主要由于设计变更、仿真不稳定等技术与内部因素。

另一方面,台积电的产能瓶颈也是现实限制因素。台积电先进制程(如N3/N2/高级封装)目前是全球最抢手的生产能力,英伟达、苹果、AMD等巨头客户都在争抢产能。产线几乎被预定一空,排期非常紧张。

台积电通常会根据订单时间、技术节点、客户战略价值等安排生产。微软既不是台积电的大客户,自身芯片设计也未完善,只能排在后面的非优先级。微软想减少对英伟达的依赖是战略必要,但芯片从设计到大规模量产之间仍有长期供应链竞争。

在台积电那里产能抢不过芯片巨头,微软只能转向英特尔的18A节点,计划在明年实现量产。这一延误给微软带来巨大额外开支。如果Maia二代不能及时规模部署,微软明年可能还要投入100亿美元购买英伟达芯片。

性能vs成本巅峰对决

虽然英伟达依然在AI芯片领域占据绝对话语权,但三大巨头的自研浪潮正给市场带来巨大变数。2025年谷歌、亚马逊和微软先后发布的最新自研芯片,预示着2026年将是一场“性能vs.成本”的巅峰对决。

性能技术仍是英伟达的核心优势,谷歌、微软、亚马逊的自研芯片只能强调成本优势。英伟达今年的Blackwell架构B200 GPU,单芯片FP8计算能力达20 PFLOPS(每秒千万亿次浮点运算),比前代H100提升4倍。

在推理任务中,Blackwell的能效比谷歌TPU高出30%,这得益于其先进的NVLink互联技术和Transformer引擎优化。黄仁勋对此充满信心,如在GTC 2025大会上宣称:“我们的GPU领先竞争对手整整一代。”

这种领先不仅体现在峰值性能,还包括软件栈的深度整合:CUDA平台支持4000多个AI框架和库,开发者生态庞大到“开箱即用”。这才是英伟达的真正护城河。相比之下,AI巨头们的自研芯片往往需额外适配,增加了开发者迁移成本。

但成本却是AI巨头自研芯片的最大卖点。亚马逊Trainium3已宣称可将训练成本降至前代的50%,谷歌Ironwood TPU在推理任务中,能效比英伟达H100高出20-30%。进入2026年,这一差距或进一步拉大。

此外,AI巨头正通过“渐进式”策略蚕食英伟达的CUDA优势。谷歌的JAX和PyTorch/XLA集成已覆盖70% AI工作负载,AWS Neuron SDK支持Llama和Stable Diffusion等开源模型,而微软的DirectML则无缝嵌入Visual Studio,吸引企业开发者。

亚马逊AWS计划在Trainium4上集成NVLink兼容技术,实现与英伟达GPU的无缝混合部署,预计训练费用再降40%。与此同时,2027年商用的谷歌TPU v8将引入光子互联和更先进的systolic array架构,针对多模态模型如Gemini 4的推理优化,成本优势或达50%以上。

四分之一市场份额

亚马逊的目标是在明年达到50%的自研占比,推动AWS在AI云市场的份额从31%升至35%。他们是Anthropic的最大投资者和云服务商,因此Anthropic的大模型训练主要靠AWS Trainium芯片。

而谷歌TPU的市场份额已悄然攀升至8%。他们从今年开始向外部客户积极销售原先自用的TPU,目前外部销售占比已达20%。随着2027年Meta转用TPU,英伟达将真正感受到谷歌带来的竞争压力。

今年10月,Anthropic与谷歌签署了价值数百亿美元的协议,计划使用多达100万片TPU,其中包括40万片Ironwood,其余通过谷歌云租赁。换句话说,现在AI大模型公司都在推动芯片多元化,尽可能同时使用多家芯片,而非只依赖英伟达GPU。

黄仁勋传记作者、深入了解英伟达的史蒂芬·维特认为,“英伟达最大的风险显然是谷歌,如果谷歌证明他们可以用自家芯片维持领先AI开发,那么这将给其他巨头树立榜样。”

即便加紧部署自研芯片,这些巨头未来几年仍会继续采购英伟达。一个值得体会的细节是,谷歌和亚马逊在发布自研芯片时,都会提前通知英伟达,因为他们希望维持与英伟达的良好关系,保证芯片供应。

黄仁勋游说成功对华芯片销售解禁,但面临科技巨头自研芯片围剿 英伟达 黄仁勋 AI芯片 自研芯片竞争 第4张

未来这些巨头自研芯片会达到多少份额?黄仁勋的直接竞争对手、AMD CEO苏姿丰对谷歌TPU给出了高度评价。“多年来,谷歌在TPU架构上做得很好。但TPU是一种更偏向特定用途的设计,它缺乏GPU所具备的可编程性、模型灵活性,以及训练与推理能力之间的平衡。GPU将高度并行架构与高可编程性相结合,从而能够实现快速创新。”

“从我们的角度来看,各种类型的加速器都有空间。然而,在未来五年内,GPU仍将明显占据市场大部分份额,因为我们仍处于行业周期的早期阶段,软件开发者希望拥有实验新算法的灵活性。因此,给ASIC类加速器(三大巨头的自研芯片都是)留出20%–25%的市场份额是合理的。”

换言之,她认为三大巨头的自研芯片可能在未来夺走四分之一的市场份额。而且,苏姿丰还计划AMD在未来3-5年,抢到两位数的市场份额。同时,英伟达在中国市场也要面临华为、寒武纪等本土竞争对手的挑战。