在上一期的深度分析中,我们曾探讨过谷歌是最具潜力超越英伟达、迈向5万亿美元市值的科技巨头。此后,谷歌频频传出利好,不仅获得巴菲特的投资,还推出了业界顶尖的AI模型。
就在市场普遍认为“英伟达主导AI芯片格局”短期内难以动摇之际,谷歌连续敲定两项关键合作,再度引发业界对其算力布局的高度关注:
其一,谷歌正与Meta洽谈一项价值数十亿美元的TPU采购协议,Meta考虑从2027年起,将部分推理计算任务从英伟达GPU迁移至谷歌TPU平台。
其二,谷歌与Anthropic确立了最高达百万颗TPU的扩容计划,涉及规模达数百亿美元。
值得注意的是,Meta一直是英伟达最大的客户之一。谷歌云内部高管明确表示:“如果TPU采用率持续扩大,我们有能力从英伟达手中夺取约10%的年收入份额。”
换言之,谷歌正从“模型+云”两端同时发力,正面挑战英伟达的芯片帝国。一条全新的“谷歌链”正在加速成形,硅谷的AI供应链版图或将迎来历史性重写。
那么,核心问题来了:当价值数百亿美元的算力订单开始流向谷歌,这是否意味着英伟达过去两年的芯片暴利时代正接近拐点?
谷歌TPU单卡性能虽不及英伟达,为何能凭借“系统级性价比”一举撬动Meta、Anthropic等巨头?
一旦资金开始从“英伟达链”分流,那条正在成型的万亿级“谷歌链”中,除了谷歌自身,还有哪些公司最有可能成为资本追逐的下一个超级强势股?
面对“英伟达链”与“谷歌链”的双轨格局,投资者应如何配置资金,才能抓住这波万亿级产业扩张的红利?
谷歌TPU何以成为大模型公司的新宠?
要理解谷歌为何能突然撬动算力市场,首先需要认清一个基本事实:英伟达在“单芯片性能”和“整柜峰值算力”上的统治地位从未被撼动。
Blackwell架构,特别是B200/GB200,训练性能强劲、推理速度快、能效出色,一个GB200 NVL72整柜可达到1.4 EFLOPS——这堪称为万亿参数模型量身定制的“核武器”。
因此,在单卡性能和极限峰值方面,英伟达始终是行业标杆,这是公认的事实。
然而,谷歌并未选择在英伟达最擅长的领域硬碰硬。相反,它走了一条差异化道路:不追求最强单卡,而是聚焦于规模、效率、成本和稳定性。谷歌的目标不是做GPU的替代品,而是打造一套系统级的算力平台。
这一点从TPU的演进历程清晰可见。第六代TPU Trillium大幅降低了训练成本。谷歌云测算,在训练Llama2、Llama3等主流模型时,其“性能/成本比”较上一代提升约2.1倍,意味着相同预算可训练两倍规模的模型。更重要的是,Trillium具备极高的分布式扩展效率,成千上万颗芯片组成的集群仍能接近满载运行。
到了第七代TPU Ironwood,谷歌彻底摆脱了“堆卡”思维,将数千颗TPU整合为一台巨型超级计算机。一个Pod最多容纳9,216颗TPU,配备1.77PB共享HBM内存,这已不像传统服务器集群,更像一台将整个机房封装进机柜的计算机。
结合谷歌自研的光交换网络,芯片间通信延迟被压至极低,超大模型在Ironwood上运行时,不再需要在数千张卡之间频繁搬移数据——如同在一台巨型电脑中运行般流畅,“内存墙”被直接绕过,推理速度自然更快。
如果抛开复杂的技术参数,回归企业最核心的考量——三到五年的总拥有成本(TCO),谷歌与英伟达的差异便一目了然。
根据谷歌自身测试,在多数主流大模型任务中,TPU v5e/v6在合适负载下的性能/成本比较传统高端GPU方案可提升2至4倍。换言之,同等预算下,企业要么能获得数倍产出,要么以更低成本完成相同训练。在实际业务中,许多公司的整体算力成本可保守降低30%至40%,部分场景甚至更低。
谷歌云的公开定价更直观:同一地区,一颗H100的Spot价格为2.25美元/小时,而一颗TPU v5e仅需0.24美元/小时,单芯片计费相差9倍。
第三方测评也得出了类似结论:在GPT规模的大模型训练中,TPU v5e在保持相近吞吐量的前提下,总成本仅为高端GPU的“零头”。
正是凭借低成本、高可扩展性和集群效率,大模型公司开始重新调整算力结构——这不是简单的“省钱”,而是基于规模×成本×风险的综合商业决策。
以Anthropic为例,其愿意将未来几年的核心算力交给谷歌,原因很简单:TPU能用更低的预算支撑更大的模型规模。同时,将数据中心建设和维护完全托付给谷歌云,意味着无需像OpenAI或xAI那样投入数百亿美元自建机房、拉光纤、配电力,从而将全部精力聚焦于模型本身——这对创业公司而言是更务实的选择。
Meta的考量则不同,它更像是在进行“风险对冲”。作为AI算力的超级用户,仅依赖英伟达已难以满足其长期规划。将部分推理任务分配给TPU,一方面使供应链更稳健,另一方面能优化长期运营成本——特别是推理和微调这类每日消耗大量算力的场景,迁移到更便宜的平台,节省的是持续的真金白银。
将所有信息拼凑起来,逻辑清晰可见:谷歌比拼的是系统效率、总成本和长期稳定性。对大模型公司而言,这比单卡性能更重要,因为企业最终关注的是:能省多少钱、扩容是否稳定、未来是否会被“卡脖子”。
更关键的是,美股投资网获悉,谷歌已将TPU引入高频交易公司、银行、国防部门等安全要求最严格的场景。能够在这些体系中本地部署并通过最严苛的安全审查,意味着TPU已跨过GPU长期难以逾越的门槛:数据隔离、超低延迟、可审计性和主权安全。
这是一个质变。一旦金融和政府系统开始采用TPU,影响的就不仅是几张采购单,而是长期的算力主权布局。这首次打开了一块过去几乎由GPU垄断且相对封闭的高价值市场。
行业格局随之出现结构性松动,一条全新的“谷歌链”正在快速成形。
谷歌AI芯片利好哪些公司
这不是简单的“换一家买硬件”,而是需求端的顶级巨头亲自推动的一次算力体系重构,对投资者而言含金量极高。那么,“谷歌链”究竟由哪些核心环节构成?哪些公司将最先受益?
首当其冲的是AVGO。许多人可能不知道,谷歌的TPU并非完全自研,真正让TPU实现“连接、稳定、扩展”的核心通信和网络部分,几乎都由AVGO提供。双方合作已近十年,绑定程度远超外界想象。
AVGO在谷歌体系中的三大核心能力是高速SerDes、交换ASIC,以及支撑谷歌Jupiter光网络的光交换芯片。它们分别相当于TPU集群的“血管”“神经系统”和“主干公路”。没有这些,TPU根本无法搭建超大规模集群,谷歌的光网络也难以达到现有规模。因此,只要谷歌坚持专用加速器路线,AVGO就是绕不开的底层核心。
那么,AVGO能否在关键能力上抗衡英伟达?答案是肯定的。英伟达的强势源于GPU、CUDA和NVLink三大王牌,尤其是NVLink,这条自研高速互联从2016年迭代至4.0,速度接近PCIe Gen5的三倍,是其大集群性能的核心来源。
但AVGO本就是网络通信起家,在交换芯片、光通信和数据中心互联等底层技术上积累深厚,完全具备与NVLink抗衡的实力。简单来说,一边是“英伟达的私有高速通道”,另一边是“AVGO的行业顶级网络架构”。在云和数据中心这类超大规模场景中,AVGO的地位毫不逊色。
这也是为何我们在2025年初就提前明确推介AVGO。
ASIC的代表玩家博通和Marvell(两家占ASIC市场超60%的份额)已领先市场多个身位。前者作为谷歌自研AI芯片TPU的制造商,合作已近十年;MRVL自推出该业务25年以来,已设计超过2000款ASIC,曾受邀为亚马逊、谷歌、微软开发定制AI芯片。
制造端由台积电TSM、Amkor(AMKR)与日月光ASE(ASX)组成铁三角。TPU v7对3nm/2nm制程、HBM堆叠、高密度Chiplet封装的依赖进一步增强,TSMC决定算力上限,AMKR和ASX决定带宽落地。随着机构预期2026年谷歌TPU将成为全球最主要自研ASIC,这三家公司是算力迭代的硬核基础。
当芯片从晶圆厂走出,真正将TPU部署成“可用”系统的是Jabil(JBL)、Flex(FLEX)与同样是我们2025必买公司的Celestica(CLS)。它们负责TPU模组、服务器机架、电源系统与整柜装配,是谷歌数据中心扩容最敏感、最直观的环节。随着TPU v7功耗与密度不断上升,机架结构、布线方式、散热设计都要全面重写,这三家整机ODM的单柜价值量与出货节奏随之提升,成为追踪谷歌CapEx的最佳风向标。
而系统的规模化运行,依赖于更高速的互联能力。谷歌的Jupiter光交换体系需要更高带宽的光模块,这是Lumentum(LITE)、Coherent(COHR)以及AVGO的光通信业务所擅长的领域。数据中心互联从400G升级到800G、1.6T,这些厂商将最先感受到需求的跃升。没有高速光通信,就无法支撑TPU集群的横向扩张。
OCS(光电路交换机)上游也首次出现具备投资价值的美股公司。谷歌采用的Palomar OCS依赖2D MEMS微镜阵列,这类高精度器件ASP高、工艺壁垒强,最直接的受益者包括SiTime(SITM)与Luna Innovations(LUNA)。同时,OCS推动的高密度光路也带动了IPG Photonics(IPGP)、Coherent(COHR)等精密光学厂商在准直器、透镜阵列与硅光波导上的新增需求。这个环节在传统数据中心从未存在,是OCS打开的全新美股增量市场。
随着集群规模扩大,基础设施压力同步上升。能否解决高功耗带来的散热、电力与液冷需求,决定了数据中心能否继续扩容。因此,VRT成为谷歌链中最“通吃”的公司。无论是部署GPU还是TPU,只要算力密度继续走高,VRT的电源管理与液冷系统就是不可替代的底层能力。
最后,谷歌的AI战略并未停留在云端。为了让Gemini Nano在全球终端设备上本地运行,谷歌必须依赖高通(QCOM)提供的端侧算力平台。Snapdragon的NPU、DSP和本地推理能力,是安卓生态能否真正跑起“端侧大模型”的关键基础。因此,谷歌的AI想真正触达普通用户,高通就是那个承上启下的核心一环。
当云端由TPU撑起、端侧由高通承载,谷歌的AI版图才真正被补全——这也意味着,谷歌正在从“云—端”两侧同时发力,构建一条完整、闭环、可规模化的算力体系。
而正是这条“云端+端侧”的双引擎,使整个行业发生了更深层的变化:AI的算力版图,已经不再只靠单一供应商支撑。
AI算力不再只有一条命脉!
站在更高的产业视角来看,谷歌TPU的崛起,触发的根本就不是“谁取代谁”的零和游戏,而是一次全球AI算力结构的“大扩容”!
过去两年,全球AI产业对英伟达的依赖度实在太高、太集中了!英伟达一旦有点风吹草动——产能紧张、交付延迟,或者价格波动——整个行业都得跟着心惊胆战,引发连锁反应!TPU的大规模杀入市场,本质上是在给全球AI产业开辟第二条成熟、可靠的算力供给线!
这带来的影响,可不是仅仅“多了一个选择”那么简单!它让大模型公司、云厂商和所有企业用户第一次能够像在餐厅点菜一样,对算力进行组合式、精细化的配置:
稳定、重复的工作:直接交给ASIC(专用芯片)。
需要灵活、高通用性的大模型:继续放在GPU(英伟达阵营)。
对成本敏感、需要极致性价比的任务:用TPU做深度优化。
超高安全要求的场景:就采用本地化部署。
这意味着,AI的底层基础设施正在从过去“英伟达说了算”的单一生态,彻底升级为“客户说了算”的“多层次算力池”!算力不再是单一的商品,而是变成了一个可组合、可调度、可精分的资源体系!
这种结构性变化,直接影响了资本市场对两条链条的估值逻辑:
英伟达链:看生态、看通用性、看平台溢价,是“成熟期的估值体系”。
谷歌链:看订单、看产能、看扩张速度,是“成长期的加速度逻辑”。
这不是两条供应链互相替代,而是全球AI基建第一次拥有了更均衡、更弹性、更具扩展空间的双轨结构:
英伟达推高天花板——让模型变得更强;
谷歌拓宽高速路——让算力供给更可持续、更规模化。
事实上,每一次有公司展示更高效的训练网络(无论是GPU还是TPU),都会进一步加强市场对“AI继续扩张”的信心循环。Google这次的突破,不是GPU的终章,而是下一轮算力投资的开场信号。因为越多公司加入AI军备竞赛,越多训练管线被打开,全球对GPU的需求反而会更强——所有追赶者都需要更多GPU才能缩短差距。
AI赛道最终不是“谁的芯片更省电”的比赛,而是“谁能让算力更快扩张”的比赛。在这条扩张曲线上,英伟达仍然是目前唯一能够让全球快速“放大算力”的基础设施提供者。
因此,谷歌链的爆发不是在稀释英伟达,而是在为未来3~5年万亿级算力扩张铺设更安全、更立体、更可持续的双轨基建。两条链不是对立,而是共同驱动下一轮超大周期的发动机。
本文由主机测评网于2026-02-21发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260226448.html