
根据产业最新动态,英伟达(NVIDIA)已明确将在其下一代名为“Rubin”的架构中,大幅度增加通用CPU核心的配置比例。
长期以来,全球算力市场几乎将GPU与AI计算能力划上了等号。然而,随着人工智能领域迈入由“智能体(Agent)”驱动的强化学习新阶段,传统的计算模型正在发生质变。在这一进程中,CPU正逐渐暴露出其在系统“木桶效应”中的短板地位,成为制约整体效能释放的新瓶颈。

前沿研究揭示,在完整的Agent执行链路里,涉及工具调用与数据预处理的环节在CPU上所消耗的时间,竟然占到了端到端总延迟的90.6%之多。特别是在高并发的应用环境下,CPU端的延迟会从2.9秒急剧攀升至6.3秒以上。这一数据有力地证明了,在大量的代理式推理(Agentic Reasoning)场景中,系统吞吐量的核心瓶颈并非GPU的算力,而是CPU的核心规模及并发调度能力。
近期,GPU行业的领军者英伟达不仅斥资20亿美元追加认购CoreWeave的股权,更宣布后者将率先部署Vera CPU——这是一款专门为“代理式推理”量身打造、旨在提升大规模AI工厂能效比的处理器。据悉,由于此前受制于ARM架构CPU的吞吐瓶颈,英伟达已决定在Rubin架构中显著提升CPU核心数,并史无前例地开放NVL72机柜对x86架构CPU的兼容支持。
东吴证券分析指出,英伟达此番主动提升CPU在系统架构中的权重,实际上是在行业层面确立了一个共识:在处理长上下文以及高并发的Agent任务时,配备大容量内存的CPU是承载海量KV Cache(键值缓存)的最佳容器。

与此同时,受超大规模云服务商(Hyperscaler)疯狂采购的影响,英特尔(Intel)与AMD在2026年全年的服务器CPU产能已提前宣告售罄。为了平衡极端的供需关系并维持后续供应,两家巨头均计划将服务器专用CPU的价格上调10%至15%。其中,英特尔为优先保障服务器端供应,甚至紧急调整了生产线,导致消费级处理器的交付进度受到波及。
在英特尔2025财年第四季度的财报电话会议上,CEO帕特·基辛格坦言,尽管AI浪潮催生了前所未有的半导体需求,但面对短期内巨大的产能缺口,“未能完全满足市场期待,我深表遗憾”。
究竟是什么原因让CPU从AI算力的边缘地带回到了聚光灯下?国金证券等研究机构分析认为,Agent对CPU需求的激增主要源于三大核心维度:应用调度压力的增大、高并发工具调用的瓶颈凸显,以及沙箱隔离环境带来的刚性算力开销。
首先是调度压力。随着AI智能体应用生态的爆发,服务器端整体的调用频次与覆盖维度显著提升,这直接导致了系统请求处理、数据迁移及控制流管理的开销呈指数级增长。
其次,为何CPU负载的增速会超过GPU?东吴证券认为,Agent时代的AI已从简单的“文本对话”升级为“任务执行”。这意味着程序中会出现海量的if/else逻辑判断。这类“分支密集型任务”如果交给擅长并行计算的GPU处理,会因控制流发散导致算力效率大幅衰减;而这恰恰是具备复杂分支预测机制的通用CPU的优势所在。
广发证券也补充道,在Agent工作流中,大模型不再是孤岛,而是与决策编排器、各类外部API工具高度集成,形成了“感知-规划-执行-再反馈”的闭环。工具调用与信息检索等环节均高度依赖CPU。随着Agent渗透率的提高,CPU作为整个计算系统的调度枢纽,其占用率正呈线性放大趋势。
此外,在长上下文推理场景下,有限的GPU HBM显存会被迅速耗尽。为了突破这一局限,业界开始大规模采用KV Cache Offload技术,将缓存数据迁移至系统内存。此时,由CPU搭配高性能DDR5/LPDDR5内存来承载KV Cache,成为了兼顾处理吞吐、系统扩展性与成本最优解的主流方案。
从资本市场视角看,招商证券指出,海外CPU巨头的本土合作伙伴将直接从本轮涨价潮中受益。同时,国内AI产业链的自主可控进程正在加速,硬件性能与软件生态的适配升级将为相关企业带来显著的业绩边际变化。
国海证券则强调,全球超大规模数据中心已迈入“架构升级周期”,CPU正面临巨大的替换需求。预计到2026年,全球服务器CPU的出货量有望实现25%的强劲增长。作为AI算力底层架构的关键一环,服务器CPU正迎来“存量更新+模型迭代+自主创新”的三重红利,其估值逻辑有望迎来深度重构。
本文由主机测评网于2026-04-07发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260434551.html