当前位置:首页 > 科技资讯 > 正文

谷歌人工智能演进史:从Transformer革新到商业困境

近日,我聆听了Acquired.fm播客推出的《Google: The AI Company》完整节目,长达四个小时,信息量极为密集,令人深感震撼。这期内容以二十五年为跨度,系统回溯了谷歌如何网罗全球顶尖AI精英、开创了改变游戏规则的Transformer技术,却目睹自身培育的人才创立OpenAI与Anthropic,最终坠入历史上最经典的创新者窘境。

收听完毕后,我梳理了这份详尽编译,期望助你洞悉这一科技史上最具魅力的案例。

史上最经典的创新者困境

试想以下情景:

你执掌一家利润丰厚的企业,在全球关键市场占有九成份额,被官方认定为垄断实体。随后,你的研究院发明了一项颠覆性技术——该技术在多数应用场景中均优于现有产品。

出于“纯粹善意”,你的科学家团队公开了研究成果。很快,初创公司们开始依托该技术打造产品。

你会如何应对?自然是全力转向新技术,对吗?

但症结在于:你尚未找到让这项新技术像旧业务那样盈利的途径。

这便是当下谷歌的真实写照。

2017年,谷歌大脑团队发布了Transformer论文——这篇著作孕育了OpenAI的ChatGPT、Anthropic,以及英伟达市值的飞跃。整个AI革命皆构建于谷歌的这一发明之上。

更惊人的是:十年前,几乎所有AI领域的顶尖人才都供职于谷歌——Ilya Sutskever(OpenAI首席科学家)、Dario Amodei(Anthropic创始人)、Andrej Karpathy(前特斯拉AI主管)、Andrew Ng、所有DeepMind创始人...

这犹如计算机时代破晓之际,IBM雇用了全世界每一位程序员。

如今,谷歌仍拥有最优秀的AI资产组合:顶级模型Gemini、年收入500亿美元的云服务、唯一可与英伟达GPU抗衡的TPU芯片,以及全球最大的搜索流量入口。

但核心问题依旧:谷歌应如何抉择?是冒险全力投入AI,还是守护搜索广告这棵摇钱树?

让我们回溯故事起点,探究谷歌如何步入今日局面。

谷歌人工智能演进史:从Transformer革新到商业困境 人工智能  谷歌大脑 Transformer模型 创新者困境 第1张

关键时间线

第一章:起源(2000-2007)

微型厨房内的对话改写历史

故事始于2000年或2001年的某日。

在谷歌的某个微型厨房内,三位工程师共进午餐:谷歌最早十名员工之一的George Herrick、知名工程师Ben Gomes,以及新人Noam Shazeer。

George随口吐露了一句改写历史的话语:

“我有个理论——数据压缩在技术上等同于数据理解。”

他的逻辑是:若能将信息压缩为更小形式存储,再还原为原始状态,那么执行该过程的系统必定“理解”了信息。犹如学生研读教科书,在脑中储存知识,而后通过考试证明理解。

年轻的Noam Shazeer停下动作:“哇,若此论成立,那意义深远。”

此思想预示了今日的大型语言模型——将全球知识压缩至数TB参数中,再“解压”还原知识。

PHIL的诞生:首个语言模型

随后数月,Noam和George做了件极富“谷歌风格”之事:他们暂停其他工作,全心钻研此想法。

此时恰逢2001年Larry Page解雇所有工程经理时期——人人皆可随心而行。

多人视其浪费时间。但Sanjay Ghemawat(Jeff Dean的传奇搭档)称:“我觉得这很酷。”

George的回应令人难忘:“Sanjay认为此主意甚佳,而世上无人比Sanjay更聪慧,为何要接受你认为它是坏主意的观点?”

他们深入探究自然语言概率模型——针对互联网上出现的任何词序列,下一词序列出现的概率为何?(是否耳熟?这正是当今LLM的基本原理。)

他们的首项成果是谷歌搜索的“您是不是要找”拼写纠错功能。

随后他们创建了一个相对“庞大”(于当时而言)的语言模型,亲切命名为PHIL(概率层次推理学习器)。

Jeff Dean的周末项目

2003年,Susan Wojcicki与Jeff Dean筹备推出AdSense。他们需理解第三方网页内容以投放关联广告。

Jeff Dean借用PHIL,耗时一周写出AdSense实现(因其是Jeff Dean)。

轰然间,AdSense诞生。此举为谷歌一夜带来数十亿美元新收入——因他们将原有AdWords广告投放至第三方网页,瞬时扩展库存。

Jeff Dean传奇时刻

在“Chuck Norris Facts”风靡年代,谷歌内部流行起“Jeff Dean Facts”:

真空光速曾为每小时35英里,直至Jeff Dean花费周末优化物理法则。

Jeff Dean的PIN码是圆周率末四位数字。

对Jeff Dean而言,NP难题意为“没问题”。

至2000年代中期,PHIL已占用谷歌数据中心15%的基础设施——用于AdSense广告投放、拼写纠错等多类应用。

第二章:黄金十年(2007-2012)

从12小时至100毫秒的奇迹

2007年,谷歌推出翻译产品。首席架构师Franz Och参与DARPA机器翻译挑战赛。

Franz构建了一个更大型语言模型,基于两万亿词的谷歌搜索索引训练,取得极高分数。

Jeff Dean闻讯询问:“太棒了!你们何时上线?”

Franz答道:“Jeff,你不明白。这是研究项目,非产品。此模型翻译单句需12小时。”

DARPA挑战赛规则为:周一提供一组句子,周五提交翻译结果。故他们有充足时间让服务器运行。

Jeff Dean回应:“让我看看你的代码。”

数月后,Jeff重构算法,使其能并行处理句子与词汇。因翻译时未必需按序处理——可将问题拆分为独立部分。

而谷歌的基础设施(Jeff和Sanjay基本参与构建)极擅并行化——能将工作负载分解为小块,发送至各数据中心,再重组返回用户。

结果:平均翻译时间从12小时降至100毫秒。

随后他们在谷歌翻译中上线此模型,效果惊人。

这是谷歌在产品中使用的首个“大型”语言模型。

斯坦福AI实验室的秘辛

2007年4月,Larry Page从斯坦福挖来Sebastian Thrun——斯坦福人工智能实验室负责人。

有趣的是,Sebastian几乎被“收购”入内——他与数名研究生正创业,已获Benchmark和Sequoia的意向书。Larry直接提议:“不如我们以签字费形式收购你们未成立的公司?”

SAIL不仅汇聚全球顶尖AI教授,还有一批斯坦福本科生担任研究助理。

其中一位是Meta首席产品官Chris Cox。

另一位大一大二学生后来辍学,参与YC 2005年夏季首批项目,创办了一个失败的本地移动社交网络...

那便是Sam Altman,公司名Loopt。

是的,Sam Altman曾在SAIL进行研究,还在WWDC上与乔布斯同台展示,身着双层翻领衬衫——那是个不同的科技时代。

Google X与谷歌大脑的诞生

Sebastian加入谷歌后,首个项目是Ground Truth——重建所有地图数据,摆脱对Tele Atlas和Navtech的依赖。

该项目极为成功。Sebastian开始游说Larry和Sergey:

“我们应大规模推进此事——引入AI教授至谷歌兼职。他们可保留学术职位,来此参与项目。他们会喜爱此安排——见证工作被数百万人使用,盈利,持股权,同时继续担任教授。”

三赢局面。

2007年12月,Sebastian邀请多伦多大学一位相对无名的机器学习教授Geoff Hinton至谷歌进行技术演讲——谈谈他与学生在神经网络方面的新工作。

Geoff Hinton,今称“神经网络教父”,当时是边缘学者。神经网络不受重视——三十至四十年前的炒作已破灭。

有趣冷知识:Geoff Hinton是George Boole的玄孙——布尔代数与布尔逻辑发明者。讽刺的是,布尔逻辑是符号化、确定性的计算机科学基石,而神经网络恰恰相反——是非确定性的。

Geoff与前博士后Yann LeCun持续宣扬:若能实现多层深度神经网络(深度学习),就能兑现该领域的承诺。

至2007年,摩尔定律的进展使得测试这些理论成为可能。

Geoff的演讲在谷歌引发轰动——这可优化他们的语言模型工作。Sebastian将Geoff引入谷歌,先任顾问,后Geoff于2011-2012年左右成为谷歌暑期实习生——当时他已六十岁。

至2009年末,Sebastian、Larry和Sergey决定成立新部门:Google X,登月工厂。

首个项目由Sebastian亲自领导(我们稍后详述)。

第二个项目将改变整个世界——谷歌大脑。

谷歌大脑:Distbelief与猫论文

Andrew Ng接任SAIL负责人后,亦被Sebastian招募兼职。

2010-2011年间某日,Andrew在谷歌园区偶遇Jeff Dean。他们探讨了语言模型与Geoff Hinton的深度学习工作。

他们决定:是时候在谷歌高度并行化的基础设施上,尝试构建一个真正大型的深度学习模型了。

2011年,Andrew Ng、Jeff Dean与神经科学博士Greg Corrado三人启动了Google X的第二个官方项目:谷歌大脑。

Jeff为此构建了一个系统,命名为Distbelief——既是“分布式”双关,也是“难以置信”,因多数人认为此不会成功。

技术突破:异步分布式学习

当时所有研究皆认为需同步训练——所有计算需密集在单机上进行,犹如GPU。

但Jeff Dean反其道而行:Distbelief在大量CPU核心上分布式运行,可能跨越整个数据中心乃至不同数据中心。

理论上此方式糟糕——每台机器需等待其他机器同步参数。

但Distbelief采用异步更新——不等待最新参数,基于过期数据更新。

理论上不应生效。但它成功了。

改变世界的猫论文

2011年底,他们提交了一篇论文:《使用大规模无监督学习构建高级特征》——但众人皆称其为“猫论文”。

他们训练了一个九层神经网络,使用16,000个CPU核心(跨1000台机器),从YouTube视频的未标注帧中识别猫。

Sundar Pichai后来回忆,目睹猫论文是其在谷歌历史上最关键的时刻之一。

随后的TGIF全员大会上展示此结果时,所有谷歌员工皆意识到:“天啊,一切皆变。”

猫论文的商业影响

Jeff Dean描述:

“我们构建的系统在1000万个随机YouTube帧上进行无监督学习。经过一段时间训练后,模型在最高层构建了一个表征——有一个神经元会对猫的图像兴奋。它从未被告知何为猫,但它见过足够多的猫正面照片,那个神经元就会为猫点亮,基本不为他物点亮。”

谷歌人工智能演进史:从Transformer革新到商业困境 人工智能  谷歌大脑 Transformer模型 创新者困境 第2张

这证明了:大型神经网络可在无监督、无标注数据情况下学习有意义模式。

且可在谷歌自建的分布式系统上运行。

YouTube的问题是:人们上传视频,但不擅描述视频内容。推荐系统仅能基于标题与描述。

猫论文证明,可用深度神经网络“看懂”视频内部内容,然后用这些数据决定推荐何视频。

这催生了YouTube的一切。使YouTube走上成为全球最大互联网资产与最大媒体公司的道路。

从2012年至2022年ChatGPT发布,AI已在塑造我们所有人的存在,驱动数千亿美元收入。

它在YouTube信息流中,随后Facebook借鉴(他们雇佣Yann LeCun成立Facebook AI研究院),再至Instagram,而后TikTok与字节跳动采用,又回归Facebook与YouTube的Reels和Shorts。

这是接下来十年人类在地球上度过闲暇时间的主要方式。

重要观点:AI时代始于2012年

众人皆言2022年后为AI时代。但对任何能充分利用推荐系统与分类系统的公司而言,AI时代始于2012年。

第三章:大爆炸时刻(2012-2017)

AlexNet:深度学习的“宇宙大爆炸”

2012年,除猫论文外,还有Jensen(英伟达CEO)所称的“AI大爆炸时刻”:AlexNet。

回到多伦多大学,Geoff Hinton有两名研究生:Alex Krizhevsky与Ilya Sutskever(未来OpenAI联合创始人兼首席科学家)。

三人用Geoff的深度神经网络算法参与著名的ImageNet竞赛——斯坦福李飞飞组织的年度机器视觉算法竞赛。

李飞飞组建了1400万张手工标注图像数据库(用亚马逊Mechanical Turk标注)。

竞赛内容是:哪个团队能写出算法,在不看标签的情况下——仅看图像——最准确地预测标签?

GPU的关键作用

多伦多团队去本地百思买购买了两块英伟达GeForce GTX 580显卡——当时英伟达的顶级游戏卡。

他们用英伟达编程语言CUDA重写神经网络算法,在这两块现成GTX 580上训练。

结果:他们比其他任何参赛者优40%。

这便是AlexNet——引发深度学习革命的时刻。

首次AI拍卖

三人做了自然之事:成立公司DNN Research(深度神经网络研究)。

此公司无产品。仅有AI研究人员。

可预见的是,它几乎立即被收购——但有个有趣故事:

首个出价者实为百度。Geoff Hinton做了任何学者都会做的事以确定公司市场价值:

“非常感谢。我现在要举办一场拍卖。”

他联系了百度、谷歌、微软与DeepMind。拍卖以4400万美元结束,谷歌胜出。团队直接加入谷歌大脑。

几年后,负责Google X的Astro Teller在《纽约时报》上被引述:

“谷歌大脑为谷歌核心业务(搜索、广告、YouTube)带来的收益,已远超Google X与整个公司多年来所有其他投资的总和。”

DeepMind:AI界的YouTube收购

但谷歌的AI故事还有另一重要部分——一次外部收购,相当于谷歌AI领域的YouTube收购:DeepMind。

2014年1月,谷歌花费5.5亿美元收购了一家伦敦的不知名AI公司。众人困惑:谷歌在伦敦买了个我从未听闻的做AI之物?

事实证明,此次收购是蝴蝶煽动翅膀的时刻,直接导致了OpenAI、ChatGPT、Anthropic,基本上导致了一切。

DeepMind的起源

DeepMind成立于2010年,由神经科学博士Demis Hassabis(此前创办过视频游戏公司)、伦敦大学学院的Shane Legg,以及第三位联合创始人Mustafa Suleyman共同创立。

公司标语:“解决智能,然后用它解决一切。”

Founders Fund领投约200万美元种子轮。后来Elon Musk亦成为投资人(经过一次关于AI风险与火星的对话)。

收购大战

2013年底,Mark Zuckerberg来电欲收购。但Demis坚持要独立性与特定治理结构,Facebook不同意。

Elon Musk提出用特斯拉股票收购,但希望他们为特斯拉工作,此不符合DeepMind愿景。

Larry Page(据称在与Elon的飞机上)得知此事,与Demis建立联系。Demis感觉Larry理解使命。

经过谈判,谷歌提供5.5亿美元,交易达成,建立了独立的伦理委员会(包括PayPal黑帮的Reid Hoffman)。DeepMind团队保持独立,专注于AGI研究。

收购后进展顺利,包括大幅节省运营成本(数据中心冷却降低40%能耗),后来的AlphaGo震惊世界。

第四章:Transformer革命(2017)

改变一切的八人团队

2017年,谷歌大脑团队的八名研究人员发表了一篇论文。

谷歌本身的反应是:“酷。这是我们语言模型工作的下一次迭代。很好。”

但这篇论文及其发表,实际上给了OpenAI机会——接过球并奔跑,构建下一个谷歌。

因这是Transformer论文。

从RNN到Transformer的演进

在Transformer论文之前,谷歌已用神经网络重写翻译系统,基于循环神经网络与LSTM——当时的最先进技术,是巨大进步。

但持续研究发现了局限性——尤其是一个大问题:它们太快“遗忘”上下文。

谷歌大脑内部团队开始寻找更好架构,既能像LSTM那样不会太快忘记上下文,又能更好地并行化与扩展。

研究员Jakob Uszkoreit一直在探索拓宽语言处理中“注意力”范围的想法。

若不只关注紧邻的词,而是告诉模型:注意整个文本语料库会怎样?

Jakob开始合作,他们决定将这个新技术称为Transformer。

Noam Shazeer的魔法

还记得Noam Shazeer吗?早期语言模型PHIL的创造者,AdSense的关键人物。

Noam闻此项目后说:“嘿,我在这方面有经验。听起来很酷。LSTM确实有问题。这可能前途光明。我要加入。”

在Noam加入之前,他们有Transformer的工作实现,但实际上未比LSTM产生更好结果。

Noam加入团队,基本上“施展了Jeff Dean式魔法”——从头重写了整个代码库。

完成后,Transformer现在碾压了基于LSTM的谷歌翻译解决方案。

而且他们发现:模型越大,结果越好。

他们发表了论文:《Attention Is All You Need》(注意力就是你所需要的一切)——明显呼应披头士经典歌曲。

Transformer产生最先进的结果,极其高效,成为GPT等的基础。

截至2025年,这篇论文被引用超过173,000次,是21世纪被引用第7多的论文。

人才流失的开始

当然,在几年内,Transformer论文的全部八位作者都离开了谷歌,要么创办要么加入AI创业公司,包括OpenAI。

残酷。

第五章:OpenAI的崛起(2018-2022)

GPT系列的诞生

2018年6月,OpenAI发表了一篇论文,描述他们如何采用Transformer,开发了一种新方法:

在互联网大量通用文本上预训练

然后将这种通用预训练微调到特定用例

他们还宣布训练并运行了这种方法的第一个概念验证模型:GPT-1(生成式预训练Transformer版本1)。

2019年,在第一次微软合作和10亿美元投资后,OpenAI发布GPT-2——仍然早期但非常有前途。

2020年6月,GPT-3问世。仍然没有面向用户的前端界面,但已非常好。开始出现大量炒作。

之后,微软再投资20亿美元。

2021年夏天,微软使用GPT-3发布GitHub Copilot——这是首个,不仅是微软产品,而是任何地方第一个将GPT融入的产品。

ChatGPT:改变游戏规则的时刻

至2022年底,OpenAI有了GPT-3.5。但仍有个问题:我该如何实际使用它?

Sam Altman说:我们应该做一个聊天机器人。这似乎是自然的界面。

一周内,内部就做出来了。他们只是把对ChatGPT 3.5 API的调用变成一个产品——你和它聊天,每次发送消息就调用GPT-3.5 API。

结果证明这是神奇的产品。

2022年11月30日,OpenAI推出GPT-3.5新界面的研究预览版:ChatGPT。

那天早上,Sam Altman发推:“今天我们推出了ChatGPT。试试和它聊天:chat.openai.com”

  • 不到一周:100万用户
  • 一个月后(12月31日):3000万用户
  • 两个月后(1月底):1亿注册用户——史上达到这一里程碑最快的产品

完全疯狂。

第六章:谷歌的Code Red(2023-2025)

错失的机会

讽刺的是,在ChatGPT之前,谷歌就有聊天机器人。

Noam Shazeer——那位不可思议的工程师,重构了Transformer,Transformer论文的主要作者之一,在谷歌拥有传奇职业生涯——在Transformer论文发表后立即开始向谷歌领导层倡议:

“我认为Transformer将如此重大,我们应该考虑抛弃搜索索引和10个蓝色链接模型,全力将整个谷歌转变为一个巨大的Transformer模型。”

Noam实际上构建了一个大型Transformer模型的聊天机器人界面。

谷歌继续研究Mina项目,发展成Lambda——也是聊天机器人,也是内部的。

2022年5月,他们发布了向公众开放的AI Test Kitchen——一个AI产品测试区,人们可以试用谷歌的内部AI产品,包括Lambda聊天界面。

但有个限制:谷歌将Lambda Chat的对话限制在五轮。五轮后,就结束了。谢谢。再见。

原因是:安全考虑。

存在威胁时刻

ChatGPT问世,成为史上最快达到1亿用户的产品。

对Sundar、Larry、Sergey、所有谷歌领导层来说,立即显而易见:这是对谷歌的存在威胁。

ChatGPT是做谷歌搜索同样工作的更好用户体验。

2022年12月,甚至在大规模推出之前但在ChatGPT时刻之后,Sundar在公司内部发布了Code Red(红色警报)。

Bard的灾难性发布

第一件事:他们把Lambda模型和聊天机器人界面拿出来,重新品牌为Bard。

2023年2月,立即发布,向所有人开放。

也许这是正确的举动,但天啊,这是个糟糕的产品。

很明显它缺少ChatGPT拥有的某种魔力——用人类反馈进行强化学习来真正调整响应的适当性、语气、声音、正确性。

更糟糕的是:在Bard的发布视频中——一个精心编排的预录视频——Bard对其中一个查询给出了不准确的事实回应。

谷歌股价单日暴跌8%,市值蒸发1000亿美元。

5月,他们用Brain团队的新模型PaLM替换Lambda。稍好一点,但仍然明显落后于GPT-3.5。

而且2023年3月,OpenAI推出了GPT-4——更好。

第七章:Gemini时代(2023至今)

Sundar的两个重大决策

此时,Sundar做出了两个非常非常重大的决定:

决策一:统一AI团队

“我们不能再在谷歌内部有两个AI团队。我们要把Brain和DeepMind合并为一个实体:Google DeepMind。”

Demis Hassabis担任CEO,Jeff Dean继续担任首席科学家。

决策二:一个模型统治一切

“我要你们去做一个新模型,我们只有一个模型。这将是谷歌所有内部使用、所有外部AI产品的模型。它将被称为Gemini。不再有不同的模型,不再有不同的团队。只有一个模型用于一切。”

这也是巨大的决定。

Gemini的快速发展

Jeff Dean和Brain的Oriol Vinyals与DeepMind团队合作,开始研究Gemini。

后来当他们通过Character AI交易把Noam带回来时,Noam加入Gemini团队。现在Jeff和Noam是Gemini的两位联合技术负责人。

关键特性:Gemini将是多模态的——文本、图像、视频、音频,一个模型。

时间线:

  • 2023年5月:在Google I/O主题演讲中宣布Gemini计划
  • 2023年12月:早期公开访问
  • 2024年2月:推出Gemini 1.5,具有100万token上下文窗口
  • 2025年2月:发布Gemini 2.0
  • 2025年3月:一个月后推出Gemini 2.5 Pro实验模式
  • 2025年6月:GA(全面可用)

六个月构建、训练、发布。疯狂。

他们宣布Gemini现在有4.5亿月活跃用户。

AI全面整合

  • AI Overviews(搜索AI概览):首先作为Labs产品推出,后来成为所有使用谷歌搜索的人的标准
  • AI Mode:深度AI搜索模式
  • 多模态生成工具:Veo(视频)、Genie(游戏)等
  • 企业应用:Google Workspace全面AI化

第八章:创新者困境

Bull Case(乐观情景):谷歌的优势

1. 无与伦比的分发渠道

依然是全球“互联网入口”

可以随意引导流量(AI Overviews、AI Mode)

谷歌搜索流量仍处于历史高位

2. 全栈AI能力(独一无二)

  • 顶级模型:Gemini
  • 自研芯片:TPU(唯一可与英伟达GPU抗衡的规模化AI芯片)
  • 云基础设施:Google Cloud(年收入500亿美元)
  • 自给自足的资金:不依赖外部融资

有人告诉我:如果你没有基础前沿模型或AI芯片,你在AI市场可能只是商品。谷歌是唯一两者都有的公司。

3. 基础设施优势

私有数据中心间光纤网络

定制化硬件架构

无人能及的规模

4. 数据与个性化潜力

海量个人和企业数据

可能实现深度个性化AI

1.5亿Google One付费用户且快速增长

5. 新市场机会

Waymo自动驾驶

视频AI

企业AI解决方案

远超传统搜索的应用边界

6. 唯一自给自足的模型制造商

云厂商有自给自足的资金,英伟达有,但所有模型制造商都依赖外部资本——除了谷歌。

Bear Case(悲观情景):巨大挑战

1. 变现难题

AI产品形态不适合广告

价值创造多,价值捕获少

谷歌在美国每用户每年赚约400美元(搜索广告)

谁会为AI付费400美元/年?只有很小一部分人

2. 市场份额下降

搜索市场占90%

AI市场占多少?可能只有25%,最多50%

不再是主导者

3. 高价值场景流失

AI正在蚕食最有价值的搜索场景

旅行规划?现在用AI

不再点击Expedia的广告

4. 产品优势不明显

1998年谷歌推出时立即明显是最优产品

今天绝对不是这样

有4-5个同等优秀的AI产品

Bard初版明显劣质,现在只是“追平”

5. 失去生态支持

现在是在位者,不再是挑战者

人们和生态系统不再像谷歌创业时那样为它加油

也不像移动转型时那样

6. 人才流失

Transformer八位作者全部离开

顶级AI人才持续流向OpenAI、Anthropic等

创业公司吸引力更大

战略困境的本质

播客的核心观点:

“这是有史以来最引人入胜的创新者困境案例。”

Larry和Sergey控制着公司。他们多次被引用说宁愿破产也不愿在AI上失败。

但他们真的会吗?

如果AI不像搜索那样是个好生意——虽然感觉当然会是,当然必须是;仅仅因为它创造的巨大价值——如果不是,他们在两个结果之间选择:

实现我们的使命:组织世界信息,使其普遍可访问和有用

拥有世界上最赚钱的科技公司

哪一个会赢?

因为如果只是使命,他们应该在AI模式上比现在激进得多,完全转向Gemini。

这是一根非常难以穿过的针。

第九章:未来展望

谷歌正在做对的事情

“如果看所有大型科技公司,谷歌——尽管事情的开始看起来多么不太可能——可能是目前在AI上尝试穿针引线做得最好的。”

“这对Sundar和他们的领导层来说令人难以置信地值得赞扬。”

他们在做艰难的决定:

统一DeepMind和Brain

整合并标准化为一个模型

快速发布产品

同时不做鲁莽的决定

“快速但不鲁莽(Rapid but not rash)。”

战略建议

1. 继续大胆整合

坚持Gemini统一战略

保持快速迭代节奏

不要因短期压力动摇

2. 探索新变现模式

AI广告新形式

个性化服务付费

企业解决方案深化

3. 激活创新文化

保持工程师创新DNA

延续“宁愿舍利润也不输AI”的初心

鼓励内部实验和冒险

4. 利用全栈优势

硬件+模型+数据+分发的闭环

构建AI时代的平台终局

基础设施领先性转化为产品优势

5. 务实预期管理

不再追求“独占性市场”

凭借规模优势仍可长期胜出

接受多极竞争的新常态

6. 主动预判风险

警惕“温水煮青蛙”

持续监控AI替代搜索的进度

战略创新而非被动应对

一个时代的轮回

25年前,Larry Page说:

“人工智能将是谷歌的终极版本。如果我们有终极搜索引擎,它将理解网络上的一切,理解你想要什么,并给你正确的东西。这显然是人工智能。我们现在还远未做到。但我们可以逐步接近,这基本上就是我们在这里工作的内容。”

那是2000年。

今天,谷歌拥有世界上最好的AI模型之一、最强的AI芯片、最大规模的云基础设施、以及数十亿用户的分发渠道。

但他们也面临着有史以来最经典的创新者困境:

发明了改变世界的技术(Transformer)

看着自己培养的人才创建竞争对手(OpenAI、Anthropic)

拥有最好的资源却被自己的成功束缚

必须在保护现金牛和拥抱未来之间做出选择

这将是商业史上最引人入胜的案例研究之一。

谷歌能否成功穿过这根针?

能否在不牺牲搜索业务的情况下赢得AI时代?

能否证明在位者也可以主导下一个时代?

答案将在接下来几年揭晓。

而无论结果如何,谷歌AI编年史已经告诉我们:

有时候,发明未来和拥有未来,是两件截然不同的事。

关键时间线

谷歌人工智能演进史:从Transformer革新到商业困境 人工智能  谷歌大脑 Transformer模型 创新者困境 第3张

核心人物

谷歌人工智能演进史:从Transformer革新到商业困境 人工智能  谷歌大脑 Transformer模型 创新者困境 第4张

lovart制图

技术里程碑解释

谷歌人工智能演进史:从Transformer革新到商业困境 人工智能  谷歌大脑 Transformer模型 创新者困境 第5张

lovart制图