当前位置:首页 > 科技资讯 > 正文

高通再战数据中心AI芯片市场,直面英伟达生态壁垒

高通再战数据中心AI芯片市场,直面英伟达生态壁垒 数据中心AI芯片  高通 英伟达 ASIC芯片 第1张

作为AI算力的核心引擎,数据中心AI芯片市场目前由英伟达占据绝对领先地位。除了英特尔、AMD、博通等传统厂商,华为、阿里、海光、寒武纪、沐曦等中国公司亦积极布局,但短期内仍难以撼动英伟达的主导格局。如今,这一热门赛道迎来新选手——全球智能手机芯片龙头高通宣布再次高调进军。

10月27日,高通正式发布面向数据中心的两款AI推理芯片Qualcomm AI200与AI250及配套机架解决方案。

AI200(预计2026年上市)和AI250(预计2027年上市)均基于高通Hexagon NPU架构,主打低功耗、高性价比与模块化部署,直接对标英伟达产品线。

为彰显决心,高通承诺其数据中心芯片路线图将每年迭代更新。同时透露,由沙特支持的AI创业公司Humain计划自2026年起部署200兆瓦的高通AI机架。以单机柜160千瓦计算,该规模约相当于1,250个机架。参照英伟达高端机架系统260万至300万美元的售价,此合作有望为高通带来超30亿美元收入。

这并非高通首次涉足服务器芯片领域。早在2017年,高通曾推出基于ARM架构的服务器芯片Centriq 2400,目标直指当时的主导者英特尔。但由于ARM生态在服务器市场尚弱,高通未能从英特尔与AMD手中争取足够客户,最终于2020年以“非核心业务”为由终止该项目。

五年后再度回归,高通的竞争对手已从英特尔转变为英伟达,资本市场对此反应热烈。

消息发布当日,高通股价盘中涨幅一度逼近21%,收盘上涨11.09%,市值单日增长近280亿美元,创下自2019年以来最大单日涨幅。

01

高通的多元化焦虑与野心

相较于2017年的试探性布局,此次高通重返服务器芯片市场的步伐更显紧迫,背后折射出深层的业务多元化焦虑。

高通营收主要分为两大板块:一是芯片业务,涵盖手机、汽车及其他领域芯片;二是专利授权业务,即向手机厂商收取3G/4G/5G标准必要专利费用。

财报显示,高通2024财年营收389.6亿美元,同比增长9%。其中芯片业务营收331.9亿美元,手机芯片业务因安卓高端机型需求复苏同比增长10%,达248.63亿美元。

然而,作为核心收入来源的手机芯片业务正面临结构性增长瓶颈乃至危机。

主要风险来自苹果加速“去高通化”。苹果手机长期采用高通基带芯片,但苹果自研基带芯片已取得进展:2025年iPhone 16e将搭载自研5G基带芯片C1。业界普遍预测,2026年四季度与高通的协议到期后,苹果可能全面转向自研芯片。据Khaveen投资量化基金估算,若完全替代,高通2028年或将损失约77亿美元收入(不含专利费)。

全球智能手机市场趋于饱和、需求疲软是另一重隐忧。IDC数据显示,过去五年全球智能手机出货量徘徊在12亿台左右,2024年虽因AI功能驱动反弹6.4%,但2025年增速预计放缓至1.6%,手机芯片需求难复疫情前水平。

除手机芯片外,高通过去五年持续拓展汽车与物联网芯片业务。2024财年,物联网芯片收入54.23亿美元,汽车芯片收入29.1亿美元,合计占芯片业务总营收的25.1%。

在高通2024年投资者日上,公司设定增长目标:到2029财年,物联网与汽车部门总收入将达220亿美元。摩根大通分析师指出,若目标达成,手机芯片占比将降至芯片收入的50%。Khaveen基金也认为,物联网与汽车业务有望弥补苹果订单流失的损失。

如今重启数据中心芯片业务,是高通推进多元化的关键一步。

此前,高通的AI战略重心长期置于终端侧。其手机端NPU技术历经近二十年迭代,已从基础AI加速模块演进为支撑生成式AI的核心引擎,形成“NPU主攻AI推理、GPU处理图形、CPU响应即时任务”的异构计算体系。

在大模型支持上,高通2023年发布的第三代骁龙8已可实现终端侧流畅运行百亿参数级大语言模型与视觉模型。通过内存架构升级、精度优化等技术,高通致力于在终端侧实现千亿参数模型的高效运行。

为赋能端侧AI,高通打造了AI软件栈(Qualcomm AI Stack),兼容TensorFlow、PyTorch等主流AI框架,并支持各类运行时环境、编译器及数学库。

在今年9月的高通骁龙技术峰会上,虽未透露数据中心芯片细节,但高管多次强调端侧AI芯片与云端AI芯片协同的必要性,指出需通过算力分工、数据协同与场景互补构建更高效、安全且成本优化的AI应用生态。

02

高通AI芯片的机会与挑战

2022年之前,高通营收规模始终高于英伟达,但至2024年,英伟达营收飙升至1305亿美元,约为高通的三倍,核心动力正是数据中心AI芯片市场的爆发式增长。

当前数据中心AI芯片主要分为两类:英伟达主导的GPU与其他公司的ASIC芯片。

GPU作为通用处理器,凭借其并行计算优势主导AI训练市场,占据半壁江山。

高通的AI芯片属于ASIC范畴,即针对特定应用定制的专用集成电路。ASIC研发门槛高、设计周期长,但具备算力密度高、能耗低、大规模量产后成本显著下降的优点。

行业普遍看好ASIC前景。高盛今年9月研报预估,2025年至2027年全球AI芯片需求中,ASIC占比将从38%升至45%,GPU则从62%降至55%。

一位资深算法工程师向《财经》表示,多数科技公司不愿完全依赖英伟达,ASIC提供了替代技术路径,这为其他芯片厂商侵蚀英伟达份额创造了可能。

事实上,谷歌、亚马逊、微软等科技巨头均已自研ASIC芯片,如谷歌TPU、亚马逊Trainium、华为昇腾、阿里平头哥等。AI芯片创业公司如美国Etched及中国寒武纪、燧原科技亦多采用ASIC方案。

随着大模型技术演进,训练算力需求趋于稳定,推理需求持续增长。在推理场景中,ASIC芯片与英伟达GPU的性能差距正在缩小。

推理场景的崛起为ASIC芯片开辟空间,也吸引了众多创业公司入场。

ASIC的上述优势为高通切入市场提供了契机。高通的核心优势之一是低功耗设计——多年来在骁龙手机芯片上积累的能效优化经验,可平移至数据中心场景,助力降低电费与散热成本。

高通新品不乏亮点:AI200单卡配备768GB LPDDR内存,容量为英伟达GB300的2.67倍,支持大模型运行;AI250引入“近存储计算”架构,宣称内存带宽提升超10倍且功耗降低。两款产品均支持灵活部署、集成液冷散热与机密计算技术,并搭配端到端软件栈实现模型一键部署。

然而,与所有挑战者一样,高通必须直面英伟达凭借CUDA构建的生态壁垒。英伟达CUDA拥有全球90%开发者的依赖,工具链成熟度极高。多位行业人士指出,高通AI Stack虽支持主流框架,但在算子库完整性、模型优化工具链上仍存差距。

此外,谷歌、亚马逊等已自研芯片,高通除Humain外能否吸引更多大型客户采购其推理芯片,将是决定其长期成败的关键。