谷歌正全力推动代号为「TorchTPU」的战略行动,核心目标是让全球最主流的AI框架PyTorch在自家TPU芯片上运行更顺畅。这不仅是一次技术补强,更是一场商业围剿。作为PyTorch的掌控者,Meta也深度参与,两家科技巨头联手试图松动英伟达的垄断地位。对谷歌而言,销售芯片已非终点,降低开发者的迁移门槛,才是真正介入竞争的开端。
谷歌发起了一项名为「TorchTPU」的新行动,旨在打破英伟达在AI算力市场的长期垄断格局。
据知情人士透露,该计划的核心是让谷歌自研的AI芯片(TPU)更顺滑地运行PyTorch,这是目前全球最主流的AI软件框架。
这是谷歌激进战略拼图中的关键一环,他们希望将TPU打造为英伟达GPU的有力替代品。
随着谷歌急需向投资者证明其巨额AI投入的回报能力,TPU销售已成为谷歌云营收增长的重要引擎。
但仅有硬件是不够的。
知情人士指出,「TorchTPU」旨在消除那道长期阻碍TPU普及的无形围墙,让习惯在PyTorch环境下搭建技术架构的客户能无痛迁移到谷歌硬件上。
甚至有消息称,为加速进程,谷歌正考虑将部分软件开源。
相较于过往对PyTorch的零星支持,这次谷歌投入了前所未有的组织关注度和战略资源。
这一转变背后,是越来越多渴望采用TPU的企业呼声。对他们而言,芯片虽好,但软件栈却成瓶颈。
在硅谷,PyTorch是AI模型开发者的通用语言,其最大支持者正是Meta。
在行业中,极少有开发者会为英伟达、AMD或谷歌芯片逐行编写底层代码,他们依赖PyTorch等工具库自动化处理开发任务。
自2016年发布以来,PyTorch的成长史几乎就是一部与英伟达CUDA生态的绑定史。
华尔街分析师普遍认为,CUDA才是英伟达抵御竞争对手最坚固的盾牌。
多年来,英伟达工程师不仅造芯片,更致力于确保PyTorch开发的模型在其硬件上跑得又快又好。
相比之下,谷歌此前走了一条截然不同的路。
他们拥有庞大的内部软件军团,使用一套名为Jax的代码框架,并通过XLA工具优化TPU运行效率。
谷歌自身的AI软件栈和性能优化大多围绕Jax构建,这种「圈地自萌」的做法,拉大了谷歌芯片与外部客户使用习惯之间的鸿沟。
面对路透社询问,谷歌云发言人虽未置评项目细节,但确认了这一战略方向。
他表示,无论TPU还是GPU基础设施,需求都在加速爆发,谷歌的重心是提供足够灵活性和规模,让开发者在任何硬件上构建应用。
曾几何时,谷歌将绝大多数TPU产能视为「私藏珍品」,仅供内部使用。
这一局面直到2022年才改变,谷歌云部门成功争取到TPU销售主导权。
此后,谷歌云大幅增加对外分配TPU额度,试图在客户AI兴趣激增时,通过扩大产能和销售抢占市场。
然而,供需存在错位。
全球大多数AI开发者使用PyTorch,而谷歌芯片最擅长Jax。
这意味着,想使用谷歌芯片并获得比肩英伟达的性能,开发者需进行大量额外工程适配。
在分秒必争的AI竞赛中,这种时间和资金消耗是企业难以承受的。
若「TorchTPU」计划成功,它将显著降低企业寻找英伟达GPU替代方案的转换成本。
英伟达之所以难以撼动,不仅在于硬件性能,更在于CUDA生态已深深嵌入PyTorch,成为训练和运行大模型的默认选项。
知情人士表示,企业客户曾反复向谷歌反馈,TPU虽好,但接入门槛太高,因历史上它强迫开发者放弃通用PyTorch,转而学习谷歌内部偏好的Jax。
为加速开发进程,谷歌找来关键盟友,即PyTorch创造者和守护者Meta。
据知情人士透露,两大科技巨头正商讨协议,让Meta获得更多TPU使用权。此前《The Information》也曾报道这一动向。
在早期合作中,谷歌主要以托管服务形式向Meta提供支持。
Meta使用谷歌设计芯片运行谷歌软件和模型,并由谷歌提供运营维护。
对Meta而言,推动软件适配TPU具极高战略价值,它不仅能降低推理成本,更能通过硬件基础设施多元化减少对英伟达依赖,从而在谈判桌上获得更多筹码。
Meta方面对此拒绝置评。
今年以来,谷歌已开始将TPU直接出售给客户数据中心,而不再局限于自家云服务。
组织架构也在调整,谷歌老将Amin Vahdat本月被任命为AI基础设施负责人,直接向CEO桑达尔·皮查伊(Sundar Pichai)汇报。
这套基础设施对谷歌至关重要,它不仅要支撑包括Gemini聊天机器人和AI搜索在内的自家产品,也要服务像Anthropic这样依赖谷歌云TPU算力的外部独角兽。
参考资料:
https://www.reuters.com/business/google-works-erode-nvidias-software-advantage-with-metas-help-2025-12-17/
本文由主机测评网于2026-02-11发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260224673.html