“未来六个季度,数据中心AI芯片收入将突破5000亿美元。”黄仁勋在GTC25上如是预测。
2026年1月6日开幕的CES展上,老黄再次发声,称90%的ASIC项目会以失败告终,这实际上是对以谷歌TPU为代表的ASIC芯片(专用集成电路)发起的一场“口头围剿”,一场针对ASIC的全面竞争已悄然拉开帷幕。
业界普遍关注GPU与ASIC竞争的终局走向,而答案或许就藏在半导体领域的终极战略资源——台积电CoWoS先进封装产能之中。
这意味着,只要对台积电CoWoS产能的预订与分配情况进行细致拆解,就能精准预测2026年AI算力芯片的市场格局。
可以说,2026年的“芯片大战”,核心就在于台积电115万片CoWoS晶圆产能的归属。
GPGPU与ASIC阵营对垒,图片由AI生成
我们先简要回顾GPU与ASIC的竞争背景(熟悉行业的读者可跳过本节)。
人工智能对算力的需求持续攀升已是共识,但需明确:更先进的芯片架构、制造工艺和封装技术,是三大关键路径。
架构层面,讨论最多的是GPGPU(通用图形处理器),英伟达凭借CUDA生态二十年的深耕,在这一领域确立了无可撼动的地位。
硬件层面,英伟达的核心优势来自两方面:HBM内存的超高带宽,以及GPGPU的大规模流处理器阵列。从H200、GB200到2026年初推出的“Vera Rubin”,性能提升始终与显存带宽、NVLink互连规模密切相关。
在GPGPU之外,以谷歌TPU为代表的ASIC芯片探索出一条更精准、定制化的道路——云端推理负载日益固化,为特定算法(如Transformer)量身定制的ASIC芯片,在能效比和总拥有成本(TCO)上展现出显著优势。
谷歌的TPU、亚马逊的Trainium均属此列。博通、Marvell、Al chip等设计公司正是通过为云巨头定制ASIC,在AI芯片市场中撕开了一道口子。
相比架构之争,工艺制程路径更直观,从7nm、5nm、3nm到2025年底量产的2nm,每一次制程升级都意味着晶体管密度和能效的提升。
不过,工艺制程的门槛正不断抬高:演进速度放缓,成本激增,2nm晶圆代工价格已高达3万美元,多数玩家难以承受。此外,制程微缩还面临“功耗墙”和“存储墙”的制约。
架构与制程之外,先进封装成为第三条关键路径,其中台积电的CoWoS(Chip on Wafer on Substrate)技术被誉为高性能计算的“皇冠明珠”。
CoWoS封装概念图,来源:台积电
CoWoS的核心在于异构集成,将多个计算芯粒(GPU/ASIC核心)、高带宽内存(HBM)、I/O芯粒等通过中介层进行超高密度、高带宽互连,集成于单一封装内。
表1:CoWoS中介层面积变化趋势
这种方式突破了单芯片光罩尺寸限制,当前中介层面积可达2800mm²,直接带来更多晶体管和更高HBM显存。
此外,CoWoS采用硅中介层,微凸块间距极小,芯粒间通信带宽激增,延迟与功耗显著降低。
正因如此,无论是追求极致性能的英伟达GPU,还是追求最优TCO的云巨头ASIC,所有顶级AI算力芯片都离不开CoWoS。
因此,在2026年这一关键节点,当制程进入2nm深水区、成本高企、架构路线分化时,CoWoS先进封装的产能分配,已成为决定算力版图的最核心变量。
表2:台积电CoWoS产能爬坡情况
从现有数据看,过去三年台积电CoWoS产能从单月12K晶圆逐步提升至2025年底的80K/月,预计2026年底将达120K/月左右。
取全年有效平均值96K/月,则2026年台积电CoWoS总有效产能约为96K/月×12个月=1150000片晶圆,这是AI芯片大战的总弹药基数。
这115万片晶圆的分配,背后是一场技术、商业与地缘交织的复杂博弈。
英伟达作为CoWoS技术的最早定义者和最大投资者,其架构(如NVLink)与台积电工艺深度耦合,自然获得最多份额。
客户层级方面,苹果、英伟达、AMD是台积电前三大VVIP客户,巨额预付款和长期协议锁定了基础产能。不过,苹果的自研AI芯片要到2028年才面世。此外,博通、Marvell因承接谷歌、AWS、Meta等云巨头的海量ASIC订单,已跻身顶级VIP行列。
对台积电而言,除ASIC外,AMD、英特尔乃至中国客户也是制衡英伟达、分散风险的重要力量,将分得部分产能。
总体来看,产品需求最旺、单价最高、技术领先的英伟达有望拿下近60%的产能;AMD预定量约90K,占比近8%,较2025年增长64%,增幅与英伟达相当。
当然,单一客户CoWoS订单激增也包含中介层面积放大的因素,对业绩的贡献必然积极。但需注意,更复杂、集成度更高的封装(如更多HBM、更大中介层)初期良率较低,实际有效产出需打折。
表3:CoWoS产能整体预订和分配情况
整个ASIC阵营主要包括博通、世芯(AI Chip)、Marvell和联发科,其中博通为领头羊。
博通2026年预定量大幅增至200K,同比增122%,主要受谷歌TPU外供拉动。但博通主要负责TPU v6p及v7p,偏向推理的v7e由联发科负责,将于2026下半年推出。未来TPU v8仍将延续v7模式,由博通与联发科共同下单CoWoS。
博通的200K预定量,按客户大致拆分如下:
第二大客户Meta的MTIA约占博通预订量的20%
第三大客户OpenAI将于年底推出内部代号Titan的芯片,采用台积电N3制程,预计占今年博通预订量的5-10%,2027年将升至20%+
2028年,苹果的AI ASIC芯片Baltra也将问世,目前由博通负责高速互联、SerDes IP及后端布线,预计2026上半年进入流片阶段。
表4:ASIC阵营的CoWoS产能预订和分配情况
相比之下,由于AWS下一代Trainium 3转单世芯(AI Chip),Marvell显得失意,主要客户仍为AWS的Trainium 2,幸而新客户微软采用N3E制程的Maia 200加入,避免了下滑,CoWoS预定量与2025年持平。
世芯因获得AWS Trainium 3订单,CoWoS预订量升至60k,同比增200%,大部分为N3制程的Trainium 3 Anita,外加Inferentia 2、微软Maia 100及少量Intel Gaudi 3。
Annapurna作为AWS子公司,一直承担AI ASIC开发,并直接向台积电预订CoWoS产能,Trainium 3的Mariana版本与AI Chip的Anita版本同时在台积电投片。
联发科是台积电2026年CoWoS的新进客户,目前已调拨大量人力支持ASIC业务——未来将成为联发科重点板块——2026下半年主要承担侧重推理的TPU v7e出货,2027年将成为出货主力年,并叠加TPU v8e订单,届时CoWoS同比增幅有望达600%。
据了解,联发科已将AI ASIC视为未来核心业务,其布局将深刻影响ASIC设计行业格局。
剩余台积电CoWoS客户的量级均小于1万片,其中微软自研ASIC Athena仍由微软团队小批量推进中。
有了产能分配数据,结合硅中介层面积,可大致估算2026年各家的AI芯片出货量。
假设英伟达的66万片晶圆中,10%分配给Hopper架构,即6.6万片,按单片切29颗计算,预计今年H200总产出可达190万颗。
从整体分配看,GPGPU阵营(NV+AMD)拿下75万片CoWoS产能,面对仅37万片产能的ASIC阵营,仍拥有绝对火力优势,英伟达一家的产能甚至超过全球其他企业总和。
CoWoS是关键变量,但仅比较产能仍可能误判——不同封装方案(single-die与dual-die)导致中介层面积差异巨大。
以Hopper为例,采用single-die,一片CoWoS晶圆可切29颗;Blackwell采用dual-die,每片仅切14颗。
因此,台积电CoWoS产能增幅不能简单等同于AI芯片出货量增加,还需考虑中介层面积放大的因素。
从CoWoS到SoW,光罩面积及中介层变化,来源:台积电
前文表1提到,硅中介层面积持续扩大是AI芯片的明确技术路线,目前中介层面积已达光罩面积的3.3倍,2026年的Rubin将提升至4~5.5倍,而2027年4-die合封的Rubin Ultra将达到9~9.5倍。
因此,以CoWoS产能消耗面积的变化来推算企业营收变化更为准确。
所以,AI芯片战的主导因素,不仅要看谁消耗更多CoWoS产能,还要看谁贡献更多算力,以及谁创造更高营收与利润。
算力比较非常直观:一颗英伟达B300的FP8算力达10PFLOPS,而一颗定制推理ASIC的算力可能仅为其几分之一,即使最强的TPU v7p也只有B300的一半,这还未计入今年将推出的Rubin。
就在2026年1月6日CES开幕会上,老黄称Rubin性能较Blackwell在推理上提升5倍、训练提升3.5倍,暗示GPU与ASIC的性能差距并未缩小。
从算力维度可得出结论——即使CoWoS切出的芯片数量相近,GPGPU阵营的总算力仍可能大幅领先,这源于GPU通用架构的“蛮力”优势——来自CoWoS消耗面积(晶体管数量)的多寡。
价值维度的比较更为残酷:英伟达单颗GPU售价高达3万美元以上,未来将升至4-5万美元。云巨头自研ASIC即便成本与GPU接近,“内部结算价”也远低于GPGPU的市场价格。
以Anthropic向博通采购210亿美元的100万颗TPU为例,扣除服务器等配置,单颗对外售价不足1.5万美元,不到英伟达Blackwell系列的一半。
结合算力与价值两点可明确:AI芯片是多维度比拼,不仅看摩尔定律、工艺制程,还要看谁的面积更大、能集成更多晶体管,最终体现为性能与价格的差异。
英伟达用60%的CoWoS产能,创造了整个AI加速芯片市场70%以上的收入和90%以上的利润,这正是黄仁勋“6个季度,5000亿美元”豪言的底气。
英伟达的优势不仅在于CUDA,还常被忽略的NVLink、NVSwitch构成的系统级优势——用户购买的并非单一芯片,而是一整套最强的“交钥匙”解决方案。
相比之下,ASIC的优势在于:当超大规模用户的软件栈完全自控且工作负载高度特化、稳定(如搜索推荐、广告排名、语音识别推理)时,自研能带来极致的TCO优化。
可以说,ASIC的故事就是——以专用化换取“去英伟达化”,最终优化财务报表。因此,能否采用ASIC的关键只有一点:规模(量)是否足够大。
首先,自研ASIC的资金与人力投入巨大;其次,便宜的TPU并非即插即用,像Anthropic直接采购谷歌TPU,也需要一支强大的底层系统工程师团队进行深度迁移与适配。
因此,仅开支一项就决定了ASIC只有超大型云厂、超大规模企业才可能使用,即便购买现成ASIC,也仅限于Anthropic这类体量的大模型企业,难以向下扩展。
再者,当前头部AI集群功耗已从几十千瓦迈向兆瓦级,未来芯片功耗将飙升至数千瓦,普通客户无法承受。而且,在风冷已达极限、液冷成为标配的背景下,数据中心的物理设计与最大集群规模都需综合考量。
另外,GPGPU与ASIC的较量也不止于单芯片,基于CPO共封装解决“功耗墙”和“互连墙”的系统级方案,以及华为384颗NPU互连的CloudMatrix 384等架构创新,都至关重要。
所以,CoWoS只是起点,更上层的互连网络(NVLink、CXL、UCIe)、光引擎(CPO)都是竞争的关键变量。
而这些变量所需的巨额资本支出,绝非小厂所能承受。
当前英伟达为代表的GPGPU市场虽被部分侵蚀,但随着物理AI等领域的推进,未来3-5年,英伟达仍将统治AI训练市场和高性能通用计算市场(训练、新兴应用、中小企业、科研)。
然而,推理将占据未来AI算力实际消耗的大头,且工作负载更固定,正是ASIC的用武之地,ASIC的势头将不断增强。
因此,为加固“护城河”,英伟达斥资200亿美元收购Groq,意图将LPU融入自身技术矩阵。
同时,英伟达也通过推出推理专用芯片、更灵活的订阅模式(DGX Cloud)以及更强大的系统级解决方案(如NVL144/288/576),来应对ASIC的“包围”。
目前英伟达仍处有利位置,掌握着“AI芯片战争”的主动权,其核心问题在于市占率与毛利的平衡。
只要英伟达不坚守极高毛利,愿意牺牲毛利换取市场,它依然是无坚不摧的王者。
ASIC生态下,谷歌TPU外供标志着ASIC从“概念”与“试点”正式迈入“规模化部署”,其增长直接与云巨头的资本开支绑定。
只要巨头持续投资AI基础设施,且自研芯片的TCO优势延续,ASIC对CoWoS的需求就会持续增长。博通、联发科、Marvell等顶级设计服务商将持续受益。
很多人关注GPGPU与ASIC对CoWoS产能需求的变化。
从产品进化看,2026年的Rubin架构将率先采用5.5倍光罩面积的中介层,2027年很快推进至9.5倍;ASIC对绝对性能要求不高,2026年预计仍停留在3.3倍,2027年大概率如此。因此结论明确:未来GPGPU对CoWoS产能的预定量将大幅增长。
回到最终芯片数量,由于ASIC芯片中介层普遍在2500mm²,单片CoWoS晶圆切出的芯片数量是GPGPU的两倍,而GPGPU的CoWoS预定量又是ASIC的两倍,所以今年两类AI芯片的全球出货量大致相当。
至于企业营收,则与CoWoS出货量成正比,因为性能与面积(晶体管总数)成正比,同制程双颗dual-die性能必然高于single-die。
因此,未来更可能呈现一个“GPU+ASIC”的混合算力世界:云巨头用英伟达GPU进行前沿模型研发与训练,同时用自研ASIC进行成本敏感的大规模推理部署。
换言之,这场战争并非你死我活的歼灭战,而是一场持久且复杂的“划界战争”。
但无论两种生态格局如何演变,作为这场芯片战共同且唯一的“军火商”,台积电坐拥CoWoS产能的定价权,将是无论哪一方获胜都不可或缺的终极大赢家。
本文由主机测评网于2026-03-17发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:http://www.vpshk.cn/20260331837.html