当前位置:首页 > 科技资讯 > 正文

从Bard翻车到Gemini碾压:Google如何用十年全栈布局实现AI逆袭

如果只看最近一个月的表现,很难相信这就是两年前因Bard“翻车”而被全球科技圈群嘲的那个Google。2023年,Bard的失误让外界一度认为Google在AI领域已经掉队,然而今天,同样的公司却凭借Gemini 3的发布实现了华丽转身。

上周(11月18日),Google正式推出了新一代大模型Gemini 3,其强悍的性能不仅碾压了众多竞品,基于Gemini 3 Pro的Nano Banana Pro更是巩固了Google在AI生成图像领域的领先地位。这一连串动作让OpenAI感受到了前所未有的压力,行业风向迅速扭转。

不仅如此,Gemini 3的成功也让“Google掉队论”彻底失效。自研TPU芯片被业界视为挑战英伟达算力霸权的重要变量,甚至有传闻称Meta正考虑大规模采购TPU,这一消息直接导致英伟达股价下跌近7%。随后,英伟达官方在X平台上发文回应:

“我们为谷歌取得的成就感到由衷高兴——他们在AI领域实现了重大突破,而我们也将继续为谷歌云提供支持。”

从Bard翻车到Gemini碾压:Google如何用十年全栈布局实现AI逆袭 Gemini  TPU 全栈AI 阿里千问 第1张

与此同时,Anthropic(Claude)上月刚刚宣布了最新一批百万级的Google TPU订单,而OpenAI联合创始人、前首席科学家Ilya Sutskever新创立的SSI也在年初选择了Google TPU作为算力来源。这些合作表明,Google的硬件实力已得到行业顶尖玩家的认可。

坦白讲,这一切不仅仅是Gemini 2.5到Gemini 3的模型升级,更是Google长期坚持的“体系胜利”——Gemini、TPU、Google Cloud、Android、Google Search这套曾被诟病为“太重太慢”的组合,如今正展现出惊人的协同效应和压迫力。

行业态度的转变尤为明显。今年之前,主流论调是Google老化、官僚化;现在,舆论几乎完全反转,分析师们纷纷称赞Google节奏稳健、产品线统一,技术底座终于爆发。甚至有评论将Google称为“醒来的巨人”,暗示它可能重新定义整个产业的技术路线。

不过,最戏剧性的并非今天的掌声,而是它与两年前低谷的巨大反差。2023年,Bard的失误让Google公开道歉,被视作大模型时代的失败典型。而如今,同一家公司却成为业界追捧的焦点。从被群嘲到被追捧,Google究竟做对了什么?

被ChatGPT打醒,但路线从未动摇

2022年底ChatGPT的横空出世,像一声惊雷震醒了整个科技界,而最受冲击的恰恰是Transformer架构的缔造者Google。基于Transformer和Scaling Law,GPT-3.5让全球首次见识到通用大模型的潜力。Google内部的反应远比外界猜测的激烈:搜索团队紧急成立“Code Red”应急小组,DeepMind与Google Brain反复讨论技术路线,管理层连续数周加班,内部邮件中弥漫着紧迫感:“如果再慢一步,我们可能被历史淘汰。”

从Bard翻车到Gemini碾压:Google如何用十年全栈布局实现AI逆袭 Gemini  TPU 全栈AI 阿里千问 第2张

在这种高压下,Bard仓促上线,结果错误频出,甚至因一条错误回答导致市值蒸发千亿美元。一时间,社交媒体和科技圈都在质疑Google“尚能饭否”?但更重要的是,Bard的失败并未动摇Google的核心战略——它依然坚持那条自2016年“AI优先”口号提出以来就持续投入的全栈式路线:自研芯片(TPU)、运营全球数据中心、训练大模型、开发原生AI应用,并依托搜索、YouTube、Google Photos等海量场景积累数据。

“掉队”并非方向错误,而是路线太长。既然方向正确,就不能换道,只能加速。因此,在经历ChatGPT冲击和Bard失利后,Google进入了最猛烈的调整期。

“Google式全栈”:十年投入,一朝兑现

首先,2023年4月,Google Brain与DeepMind正式合并,两支全球顶尖的研究团队被整合,由AlphaGo之父Demis Hassabis统一指挥。这一举措表面上是资源整合,实则清除了长期存在的内部路线分歧和组织壁垒。“AI优先”战略终于从口号变为真正的“力出一孔”。

从Bard翻车到Gemini碾压:Google如何用十年全栈布局实现AI逆袭 Gemini  TPU 全栈AI 阿里千问 第3张

与此同时,过去十年默默积累的TPU开始显现价值。TPU最初仅为内部搜索和广告推理加速设计,随后逐步支持模型训练。大模型时代到来后,这一优势迅速转化为行业变量,成为Google区别于其他厂商的核心竞争力。ChatGPT之后,TPU v5、v6、v7(Ironwood)迭代节奏明显加快,Anthropic等外部客户纷纷采用,Google Cloud的算力含金量随之提升。

从Bard翻车到Gemini碾压:Google如何用十年全栈布局实现AI逆袭 Gemini  TPU 全栈AI 阿里千问 第4张

从Bard到Gemini,背后是一次“架构统一工程”:从Pixel手机上的Gemini Nano,到侧重效率的Gemini Flash,再到最强的Gemini Pro,所有模型共享同一套架构、训练方法和评测体系。这种统一让Gemini 2.5在推理和多模态上重返第一梯队,也让Gemini 3在视觉、语音、代码理解等方面全面进化。过去被嘲笑的“慢”,正是为了铺平这条统一路线。

体系的成形最终必须落地产品。Bard失败后,Google调整了产品优先级:搜索引入AI预览并上线AI Mode;Pixel手机深度整合Gemini模型,提升影像、翻译和语音助手体验;NotebookLM和Nano Banana则作为原生AI应用,探索知识管理与视觉生成的新可能。

从Bard翻车到Gemini碾压:Google如何用十年全栈布局实现AI逆袭 Gemini  TPU 全栈AI 阿里千问 第5张

可以说,Google用十年时间将芯片、模型、云基础设施、搜索生态、移动端和多媒体数据整合成一套完整体系。这套体系看似笨重,但当所有环节在同一条路径上协同发力时,便形成了难以复制的整体优势。

阿里、百度能否复现Google式“反转”?

将目光转回国内,当前大模型竞争的格局与Google的经历有相似之处。豆包凭借快速迭代率先突围,QuestMobile数据显示,今年第三季度豆包App月活已达1.59亿,远超DeepSeek,火山引擎公有云大模型调用量份额逼近一半,日均token调用量突破三十万亿。

从Bard翻车到Gemini碾压:Google如何用十年全栈布局实现AI逆袭 Gemini  TPU 全栈AI 阿里千问 第6张

然而,豆包的领先并不意味着终局已定。Google的案例证明,决定胜负的往往不是单点爆发,而是体系能力。阿里近两年在模型、算力、开源和应用层面的连招,正让它成为最有可能走出“Google式反转”的国内玩家。千问App的崛起只是表象,背后是Qwen模型在全球开源社区的强大号召力——Qwen2.5到Qwen3-Max将推理、多模态能力推至国际一线,Hugging Face和GitHub下载量稳居前列。阿里今年明确以“千问”取代“通义”,正是将底层能力压缩成C端入口,让技术体系具备规模化输出能力。

从Bard翻车到Gemini碾压:Google如何用十年全栈布局实现AI逆袭 Gemini  TPU 全栈AI 阿里千问 第7张

某种意义上,千问的状态很像Google反转前的阶段——模型够强,生态够深,入口刚刚成型,真正的大考才刚刚开始。

而百度虽然C端产品节奏稍慢,但技术底座依然坚实:文心5.0原生全模态架构、万亿参数规模、与昆仑芯的深度绑定,让它在To B/To G领域拥有独特纵深。只是体系优势要转化为C端规模,仍需跨越产品落地的鸿沟。

将国内三家对比,更能理解Google的启示:豆包证明了规模本身是强大的飞轮;阿里证明了开源、全栈和大生态可以在关键时刻形成反转势能;百度则证明技术底座永不过时,只待应用窗口将其推向前台。国内的竞争远未结束,最终胜出的,很可能是那个能将模型、算力和应用捏合成完整路径的玩家。