近日,我聆听了Acquired.fm播客推出的《Google: The AI Company》完整节目,长达四个小时,信息量极为密集,令人深感震撼。这期内容以二十五年为跨度,系统回溯了谷歌如何网罗全球顶尖AI精英、开创了改变游戏规则的Transformer技术,却目睹自身培育的人才创立OpenAI与Anthropic,最终坠入历史上最经典的创新者窘境。
收听完毕后,我梳理了这份详尽编译,期望助你洞悉这一科技史上最具魅力的案例。
试想以下情景:
你执掌一家利润丰厚的企业,在全球关键市场占有九成份额,被官方认定为垄断实体。随后,你的研究院发明了一项颠覆性技术——该技术在多数应用场景中均优于现有产品。
出于“纯粹善意”,你的科学家团队公开了研究成果。很快,初创公司们开始依托该技术打造产品。
你会如何应对?自然是全力转向新技术,对吗?
但症结在于:你尚未找到让这项新技术像旧业务那样盈利的途径。
这便是当下谷歌的真实写照。
2017年,谷歌大脑团队发布了Transformer论文——这篇著作孕育了OpenAI的ChatGPT、Anthropic,以及英伟达市值的飞跃。整个AI革命皆构建于谷歌的这一发明之上。
更惊人的是:十年前,几乎所有AI领域的顶尖人才都供职于谷歌——Ilya Sutskever(OpenAI首席科学家)、Dario Amodei(Anthropic创始人)、Andrej Karpathy(前特斯拉AI主管)、Andrew Ng、所有DeepMind创始人...
这犹如计算机时代破晓之际,IBM雇用了全世界每一位程序员。
如今,谷歌仍拥有最优秀的AI资产组合:顶级模型Gemini、年收入500亿美元的云服务、唯一可与英伟达GPU抗衡的TPU芯片,以及全球最大的搜索流量入口。
但核心问题依旧:谷歌应如何抉择?是冒险全力投入AI,还是守护搜索广告这棵摇钱树?
让我们回溯故事起点,探究谷歌如何步入今日局面。
关键时间线
微型厨房内的对话改写历史
故事始于2000年或2001年的某日。
在谷歌的某个微型厨房内,三位工程师共进午餐:谷歌最早十名员工之一的George Herrick、知名工程师Ben Gomes,以及新人Noam Shazeer。
George随口吐露了一句改写历史的话语:
“我有个理论——数据压缩在技术上等同于数据理解。”
他的逻辑是:若能将信息压缩为更小形式存储,再还原为原始状态,那么执行该过程的系统必定“理解”了信息。犹如学生研读教科书,在脑中储存知识,而后通过考试证明理解。
年轻的Noam Shazeer停下动作:“哇,若此论成立,那意义深远。”
此思想预示了今日的大型语言模型——将全球知识压缩至数TB参数中,再“解压”还原知识。
PHIL的诞生:首个语言模型
随后数月,Noam和George做了件极富“谷歌风格”之事:他们暂停其他工作,全心钻研此想法。
此时恰逢2001年Larry Page解雇所有工程经理时期——人人皆可随心而行。
多人视其浪费时间。但Sanjay Ghemawat(Jeff Dean的传奇搭档)称:“我觉得这很酷。”
George的回应令人难忘:“Sanjay认为此主意甚佳,而世上无人比Sanjay更聪慧,为何要接受你认为它是坏主意的观点?”
他们深入探究自然语言概率模型——针对互联网上出现的任何词序列,下一词序列出现的概率为何?(是否耳熟?这正是当今LLM的基本原理。)
他们的首项成果是谷歌搜索的“您是不是要找”拼写纠错功能。
随后他们创建了一个相对“庞大”(于当时而言)的语言模型,亲切命名为PHIL(概率层次推理学习器)。
Jeff Dean的周末项目
2003年,Susan Wojcicki与Jeff Dean筹备推出AdSense。他们需理解第三方网页内容以投放关联广告。
Jeff Dean借用PHIL,耗时一周写出AdSense实现(因其是Jeff Dean)。
轰然间,AdSense诞生。此举为谷歌一夜带来数十亿美元新收入——因他们将原有AdWords广告投放至第三方网页,瞬时扩展库存。
Jeff Dean传奇时刻
在“Chuck Norris Facts”风靡年代,谷歌内部流行起“Jeff Dean Facts”:
真空光速曾为每小时35英里,直至Jeff Dean花费周末优化物理法则。
Jeff Dean的PIN码是圆周率末四位数字。
对Jeff Dean而言,NP难题意为“没问题”。
至2000年代中期,PHIL已占用谷歌数据中心15%的基础设施——用于AdSense广告投放、拼写纠错等多类应用。
从12小时至100毫秒的奇迹
2007年,谷歌推出翻译产品。首席架构师Franz Och参与DARPA机器翻译挑战赛。
Franz构建了一个更大型语言模型,基于两万亿词的谷歌搜索索引训练,取得极高分数。
Jeff Dean闻讯询问:“太棒了!你们何时上线?”
Franz答道:“Jeff,你不明白。这是研究项目,非产品。此模型翻译单句需12小时。”
DARPA挑战赛规则为:周一提供一组句子,周五提交翻译结果。故他们有充足时间让服务器运行。
Jeff Dean回应:“让我看看你的代码。”
数月后,Jeff重构算法,使其能并行处理句子与词汇。因翻译时未必需按序处理——可将问题拆分为独立部分。
而谷歌的基础设施(Jeff和Sanjay基本参与构建)极擅并行化——能将工作负载分解为小块,发送至各数据中心,再重组返回用户。
结果:平均翻译时间从12小时降至100毫秒。
随后他们在谷歌翻译中上线此模型,效果惊人。
这是谷歌在产品中使用的首个“大型”语言模型。
斯坦福AI实验室的秘辛
2007年4月,Larry Page从斯坦福挖来Sebastian Thrun——斯坦福人工智能实验室负责人。
有趣的是,Sebastian几乎被“收购”入内——他与数名研究生正创业,已获Benchmark和Sequoia的意向书。Larry直接提议:“不如我们以签字费形式收购你们未成立的公司?”
SAIL不仅汇聚全球顶尖AI教授,还有一批斯坦福本科生担任研究助理。
其中一位是Meta首席产品官Chris Cox。
另一位大一大二学生后来辍学,参与YC 2005年夏季首批项目,创办了一个失败的本地移动社交网络...
那便是Sam Altman,公司名Loopt。
是的,Sam Altman曾在SAIL进行研究,还在WWDC上与乔布斯同台展示,身着双层翻领衬衫——那是个不同的科技时代。
Google X与谷歌大脑的诞生
Sebastian加入谷歌后,首个项目是Ground Truth——重建所有地图数据,摆脱对Tele Atlas和Navtech的依赖。
该项目极为成功。Sebastian开始游说Larry和Sergey:
“我们应大规模推进此事——引入AI教授至谷歌兼职。他们可保留学术职位,来此参与项目。他们会喜爱此安排——见证工作被数百万人使用,盈利,持股权,同时继续担任教授。”
三赢局面。
2007年12月,Sebastian邀请多伦多大学一位相对无名的机器学习教授Geoff Hinton至谷歌进行技术演讲——谈谈他与学生在神经网络方面的新工作。
Geoff Hinton,今称“神经网络教父”,当时是边缘学者。神经网络不受重视——三十至四十年前的炒作已破灭。
有趣冷知识:Geoff Hinton是George Boole的玄孙——布尔代数与布尔逻辑发明者。讽刺的是,布尔逻辑是符号化、确定性的计算机科学基石,而神经网络恰恰相反——是非确定性的。
Geoff与前博士后Yann LeCun持续宣扬:若能实现多层深度神经网络(深度学习),就能兑现该领域的承诺。
至2007年,摩尔定律的进展使得测试这些理论成为可能。
Geoff的演讲在谷歌引发轰动——这可优化他们的语言模型工作。Sebastian将Geoff引入谷歌,先任顾问,后Geoff于2011-2012年左右成为谷歌暑期实习生——当时他已六十岁。
至2009年末,Sebastian、Larry和Sergey决定成立新部门:Google X,登月工厂。
首个项目由Sebastian亲自领导(我们稍后详述)。
第二个项目将改变整个世界——谷歌大脑。
谷歌大脑:Distbelief与猫论文
Andrew Ng接任SAIL负责人后,亦被Sebastian招募兼职。
2010-2011年间某日,Andrew在谷歌园区偶遇Jeff Dean。他们探讨了语言模型与Geoff Hinton的深度学习工作。
他们决定:是时候在谷歌高度并行化的基础设施上,尝试构建一个真正大型的深度学习模型了。
2011年,Andrew Ng、Jeff Dean与神经科学博士Greg Corrado三人启动了Google X的第二个官方项目:谷歌大脑。
Jeff为此构建了一个系统,命名为Distbelief——既是“分布式”双关,也是“难以置信”,因多数人认为此不会成功。
技术突破:异步分布式学习
当时所有研究皆认为需同步训练——所有计算需密集在单机上进行,犹如GPU。
但Jeff Dean反其道而行:Distbelief在大量CPU核心上分布式运行,可能跨越整个数据中心乃至不同数据中心。
理论上此方式糟糕——每台机器需等待其他机器同步参数。
但Distbelief采用异步更新——不等待最新参数,基于过期数据更新。
理论上不应生效。但它成功了。
改变世界的猫论文
2011年底,他们提交了一篇论文:《使用大规模无监督学习构建高级特征》——但众人皆称其为“猫论文”。
他们训练了一个九层神经网络,使用16,000个CPU核心(跨1000台机器),从YouTube视频的未标注帧中识别猫。
Sundar Pichai后来回忆,目睹猫论文是其在谷歌历史上最关键的时刻之一。
随后的TGIF全员大会上展示此结果时,所有谷歌员工皆意识到:“天啊,一切皆变。”
猫论文的商业影响
Jeff Dean描述:
“我们构建的系统在1000万个随机YouTube帧上进行无监督学习。经过一段时间训练后,模型在最高层构建了一个表征——有一个神经元会对猫的图像兴奋。它从未被告知何为猫,但它见过足够多的猫正面照片,那个神经元就会为猫点亮,基本不为他物点亮。”
这证明了:大型神经网络可在无监督、无标注数据情况下学习有意义模式。
且可在谷歌自建的分布式系统上运行。
YouTube的问题是:人们上传视频,但不擅描述视频内容。推荐系统仅能基于标题与描述。
猫论文证明,可用深度神经网络“看懂”视频内部内容,然后用这些数据决定推荐何视频。
这催生了YouTube的一切。使YouTube走上成为全球最大互联网资产与最大媒体公司的道路。
从2012年至2022年ChatGPT发布,AI已在塑造我们所有人的存在,驱动数千亿美元收入。
它在YouTube信息流中,随后Facebook借鉴(他们雇佣Yann LeCun成立Facebook AI研究院),再至Instagram,而后TikTok与字节跳动采用,又回归Facebook与YouTube的Reels和Shorts。
这是接下来十年人类在地球上度过闲暇时间的主要方式。
重要观点:AI时代始于2012年
众人皆言2022年后为AI时代。但对任何能充分利用推荐系统与分类系统的公司而言,AI时代始于2012年。
AlexNet:深度学习的“宇宙大爆炸”
2012年,除猫论文外,还有Jensen(英伟达CEO)所称的“AI大爆炸时刻”:AlexNet。
回到多伦多大学,Geoff Hinton有两名研究生:Alex Krizhevsky与Ilya Sutskever(未来OpenAI联合创始人兼首席科学家)。
三人用Geoff的深度神经网络算法参与著名的ImageNet竞赛——斯坦福李飞飞组织的年度机器视觉算法竞赛。
李飞飞组建了1400万张手工标注图像数据库(用亚马逊Mechanical Turk标注)。
竞赛内容是:哪个团队能写出算法,在不看标签的情况下——仅看图像——最准确地预测标签?
GPU的关键作用
多伦多团队去本地百思买购买了两块英伟达GeForce GTX 580显卡——当时英伟达的顶级游戏卡。
他们用英伟达编程语言CUDA重写神经网络算法,在这两块现成GTX 580上训练。
结果:他们比其他任何参赛者优40%。
这便是AlexNet——引发深度学习革命的时刻。
首次AI拍卖
三人做了自然之事:成立公司DNN Research(深度神经网络研究)。
此公司无产品。仅有AI研究人员。
可预见的是,它几乎立即被收购——但有个有趣故事:
首个出价者实为百度。Geoff Hinton做了任何学者都会做的事以确定公司市场价值:
“非常感谢。我现在要举办一场拍卖。”
他联系了百度、谷歌、微软与DeepMind。拍卖以4400万美元结束,谷歌胜出。团队直接加入谷歌大脑。
几年后,负责Google X的Astro Teller在《纽约时报》上被引述:
“谷歌大脑为谷歌核心业务(搜索、广告、YouTube)带来的收益,已远超Google X与整个公司多年来所有其他投资的总和。”
DeepMind:AI界的YouTube收购
但谷歌的AI故事还有另一重要部分——一次外部收购,相当于谷歌AI领域的YouTube收购:DeepMind。
2014年1月,谷歌花费5.5亿美元收购了一家伦敦的不知名AI公司。众人困惑:谷歌在伦敦买了个我从未听闻的做AI之物?
事实证明,此次收购是蝴蝶煽动翅膀的时刻,直接导致了OpenAI、ChatGPT、Anthropic,基本上导致了一切。
DeepMind的起源
DeepMind成立于2010年,由神经科学博士Demis Hassabis(此前创办过视频游戏公司)、伦敦大学学院的Shane Legg,以及第三位联合创始人Mustafa Suleyman共同创立。
公司标语:“解决智能,然后用它解决一切。”
Founders Fund领投约200万美元种子轮。后来Elon Musk亦成为投资人(经过一次关于AI风险与火星的对话)。
收购大战
2013年底,Mark Zuckerberg来电欲收购。但Demis坚持要独立性与特定治理结构,Facebook不同意。
Elon Musk提出用特斯拉股票收购,但希望他们为特斯拉工作,此不符合DeepMind愿景。
Larry Page(据称在与Elon的飞机上)得知此事,与Demis建立联系。Demis感觉Larry理解使命。
经过谈判,谷歌提供5.5亿美元,交易达成,建立了独立的伦理委员会(包括PayPal黑帮的Reid Hoffman)。DeepMind团队保持独立,专注于AGI研究。
收购后进展顺利,包括大幅节省运营成本(数据中心冷却降低40%能耗),后来的AlphaGo震惊世界。
改变一切的八人团队
2017年,谷歌大脑团队的八名研究人员发表了一篇论文。
谷歌本身的反应是:“酷。这是我们语言模型工作的下一次迭代。很好。”
但这篇论文及其发表,实际上给了OpenAI机会——接过球并奔跑,构建下一个谷歌。
因这是Transformer论文。
从RNN到Transformer的演进
在Transformer论文之前,谷歌已用神经网络重写翻译系统,基于循环神经网络与LSTM——当时的最先进技术,是巨大进步。
但持续研究发现了局限性——尤其是一个大问题:它们太快“遗忘”上下文。
谷歌大脑内部团队开始寻找更好架构,既能像LSTM那样不会太快忘记上下文,又能更好地并行化与扩展。
研究员Jakob Uszkoreit一直在探索拓宽语言处理中“注意力”范围的想法。
若不只关注紧邻的词,而是告诉模型:注意整个文本语料库会怎样?
Jakob开始合作,他们决定将这个新技术称为Transformer。
Noam Shazeer的魔法
还记得Noam Shazeer吗?早期语言模型PHIL的创造者,AdSense的关键人物。
Noam闻此项目后说:“嘿,我在这方面有经验。听起来很酷。LSTM确实有问题。这可能前途光明。我要加入。”
在Noam加入之前,他们有Transformer的工作实现,但实际上未比LSTM产生更好结果。
Noam加入团队,基本上“施展了Jeff Dean式魔法”——从头重写了整个代码库。
完成后,Transformer现在碾压了基于LSTM的谷歌翻译解决方案。
而且他们发现:模型越大,结果越好。
他们发表了论文:《Attention Is All You Need》(注意力就是你所需要的一切)——明显呼应披头士经典歌曲。
Transformer产生最先进的结果,极其高效,成为GPT等的基础。
截至2025年,这篇论文被引用超过173,000次,是21世纪被引用第7多的论文。
人才流失的开始
当然,在几年内,Transformer论文的全部八位作者都离开了谷歌,要么创办要么加入AI创业公司,包括OpenAI。
残酷。
GPT系列的诞生
2018年6月,OpenAI发表了一篇论文,描述他们如何采用Transformer,开发了一种新方法:
在互联网大量通用文本上预训练
然后将这种通用预训练微调到特定用例
他们还宣布训练并运行了这种方法的第一个概念验证模型:GPT-1(生成式预训练Transformer版本1)。
2019年,在第一次微软合作和10亿美元投资后,OpenAI发布GPT-2——仍然早期但非常有前途。
2020年6月,GPT-3问世。仍然没有面向用户的前端界面,但已非常好。开始出现大量炒作。
之后,微软再投资20亿美元。
2021年夏天,微软使用GPT-3发布GitHub Copilot——这是首个,不仅是微软产品,而是任何地方第一个将GPT融入的产品。
ChatGPT:改变游戏规则的时刻
至2022年底,OpenAI有了GPT-3.5。但仍有个问题:我该如何实际使用它?
Sam Altman说:我们应该做一个聊天机器人。这似乎是自然的界面。
一周内,内部就做出来了。他们只是把对ChatGPT 3.5 API的调用变成一个产品——你和它聊天,每次发送消息就调用GPT-3.5 API。
结果证明这是神奇的产品。
2022年11月30日,OpenAI推出GPT-3.5新界面的研究预览版:ChatGPT。
那天早上,Sam Altman发推:“今天我们推出了ChatGPT。试试和它聊天:chat.openai.com”
完全疯狂。
错失的机会
讽刺的是,在ChatGPT之前,谷歌就有聊天机器人。
Noam Shazeer——那位不可思议的工程师,重构了Transformer,Transformer论文的主要作者之一,在谷歌拥有传奇职业生涯——在Transformer论文发表后立即开始向谷歌领导层倡议:
“我认为Transformer将如此重大,我们应该考虑抛弃搜索索引和10个蓝色链接模型,全力将整个谷歌转变为一个巨大的Transformer模型。”
Noam实际上构建了一个大型Transformer模型的聊天机器人界面。
谷歌继续研究Mina项目,发展成Lambda——也是聊天机器人,也是内部的。
2022年5月,他们发布了向公众开放的AI Test Kitchen——一个AI产品测试区,人们可以试用谷歌的内部AI产品,包括Lambda聊天界面。
但有个限制:谷歌将Lambda Chat的对话限制在五轮。五轮后,就结束了。谢谢。再见。
原因是:安全考虑。
存在威胁时刻
ChatGPT问世,成为史上最快达到1亿用户的产品。
对Sundar、Larry、Sergey、所有谷歌领导层来说,立即显而易见:这是对谷歌的存在威胁。
ChatGPT是做谷歌搜索同样工作的更好用户体验。
2022年12月,甚至在大规模推出之前但在ChatGPT时刻之后,Sundar在公司内部发布了Code Red(红色警报)。
Bard的灾难性发布
第一件事:他们把Lambda模型和聊天机器人界面拿出来,重新品牌为Bard。
2023年2月,立即发布,向所有人开放。
也许这是正确的举动,但天啊,这是个糟糕的产品。
很明显它缺少ChatGPT拥有的某种魔力——用人类反馈进行强化学习来真正调整响应的适当性、语气、声音、正确性。
更糟糕的是:在Bard的发布视频中——一个精心编排的预录视频——Bard对其中一个查询给出了不准确的事实回应。
谷歌股价单日暴跌8%,市值蒸发1000亿美元。
5月,他们用Brain团队的新模型PaLM替换Lambda。稍好一点,但仍然明显落后于GPT-3.5。
而且2023年3月,OpenAI推出了GPT-4——更好。
Sundar的两个重大决策
此时,Sundar做出了两个非常非常重大的决定:
决策一:统一AI团队
“我们不能再在谷歌内部有两个AI团队。我们要把Brain和DeepMind合并为一个实体:Google DeepMind。”
Demis Hassabis担任CEO,Jeff Dean继续担任首席科学家。
决策二:一个模型统治一切
“我要你们去做一个新模型,我们只有一个模型。这将是谷歌所有内部使用、所有外部AI产品的模型。它将被称为Gemini。不再有不同的模型,不再有不同的团队。只有一个模型用于一切。”
这也是巨大的决定。
Gemini的快速发展
Jeff Dean和Brain的Oriol Vinyals与DeepMind团队合作,开始研究Gemini。
后来当他们通过Character AI交易把Noam带回来时,Noam加入Gemini团队。现在Jeff和Noam是Gemini的两位联合技术负责人。
关键特性:Gemini将是多模态的——文本、图像、视频、音频,一个模型。
时间线:
六个月构建、训练、发布。疯狂。
他们宣布Gemini现在有4.5亿月活跃用户。
AI全面整合
Bull Case(乐观情景):谷歌的优势
1. 无与伦比的分发渠道
依然是全球“互联网入口”
可以随意引导流量(AI Overviews、AI Mode)
谷歌搜索流量仍处于历史高位
2. 全栈AI能力(独一无二)
有人告诉我:如果你没有基础前沿模型或AI芯片,你在AI市场可能只是商品。谷歌是唯一两者都有的公司。
3. 基础设施优势
私有数据中心间光纤网络
定制化硬件架构
无人能及的规模
4. 数据与个性化潜力
海量个人和企业数据
可能实现深度个性化AI
1.5亿Google One付费用户且快速增长
5. 新市场机会
Waymo自动驾驶
视频AI
企业AI解决方案
远超传统搜索的应用边界
6. 唯一自给自足的模型制造商
云厂商有自给自足的资金,英伟达有,但所有模型制造商都依赖外部资本——除了谷歌。
Bear Case(悲观情景):巨大挑战
1. 变现难题
AI产品形态不适合广告
价值创造多,价值捕获少
谷歌在美国每用户每年赚约400美元(搜索广告)
谁会为AI付费400美元/年?只有很小一部分人
2. 市场份额下降
搜索市场占90%
AI市场占多少?可能只有25%,最多50%
不再是主导者
3. 高价值场景流失
AI正在蚕食最有价值的搜索场景
旅行规划?现在用AI
不再点击Expedia的广告
4. 产品优势不明显
1998年谷歌推出时立即明显是最优产品
今天绝对不是这样
有4-5个同等优秀的AI产品
Bard初版明显劣质,现在只是“追平”
5. 失去生态支持
现在是在位者,不再是挑战者
人们和生态系统不再像谷歌创业时那样为它加油
也不像移动转型时那样
6. 人才流失
Transformer八位作者全部离开
顶级AI人才持续流向OpenAI、Anthropic等
创业公司吸引力更大
战略困境的本质
播客的核心观点:
“这是有史以来最引人入胜的创新者困境案例。”
Larry和Sergey控制着公司。他们多次被引用说宁愿破产也不愿在AI上失败。
但他们真的会吗?
如果AI不像搜索那样是个好生意——虽然感觉当然会是,当然必须是;仅仅因为它创造的巨大价值——如果不是,他们在两个结果之间选择:
实现我们的使命:组织世界信息,使其普遍可访问和有用
拥有世界上最赚钱的科技公司
哪一个会赢?
因为如果只是使命,他们应该在AI模式上比现在激进得多,完全转向Gemini。
这是一根非常难以穿过的针。
谷歌正在做对的事情
“如果看所有大型科技公司,谷歌——尽管事情的开始看起来多么不太可能——可能是目前在AI上尝试穿针引线做得最好的。”
“这对Sundar和他们的领导层来说令人难以置信地值得赞扬。”
他们在做艰难的决定:
统一DeepMind和Brain
整合并标准化为一个模型
快速发布产品
同时不做鲁莽的决定
“快速但不鲁莽(Rapid but not rash)。”
战略建议
1. 继续大胆整合
坚持Gemini统一战略
保持快速迭代节奏
不要因短期压力动摇
2. 探索新变现模式
AI广告新形式
个性化服务付费
企业解决方案深化
3. 激活创新文化
保持工程师创新DNA
延续“宁愿舍利润也不输AI”的初心
鼓励内部实验和冒险
4. 利用全栈优势
硬件+模型+数据+分发的闭环
构建AI时代的平台终局
基础设施领先性转化为产品优势
5. 务实预期管理
不再追求“独占性市场”
凭借规模优势仍可长期胜出
接受多极竞争的新常态
6. 主动预判风险
警惕“温水煮青蛙”
持续监控AI替代搜索的进度
战略创新而非被动应对
25年前,Larry Page说:
“人工智能将是谷歌的终极版本。如果我们有终极搜索引擎,它将理解网络上的一切,理解你想要什么,并给你正确的东西。这显然是人工智能。我们现在还远未做到。但我们可以逐步接近,这基本上就是我们在这里工作的内容。”
那是2000年。
今天,谷歌拥有世界上最好的AI模型之一、最强的AI芯片、最大规模的云基础设施、以及数十亿用户的分发渠道。
但他们也面临着有史以来最经典的创新者困境:
发明了改变世界的技术(Transformer)
看着自己培养的人才创建竞争对手(OpenAI、Anthropic)
拥有最好的资源却被自己的成功束缚
必须在保护现金牛和拥抱未来之间做出选择
这将是商业史上最引人入胜的案例研究之一。
谷歌能否成功穿过这根针?
能否在不牺牲搜索业务的情况下赢得AI时代?
能否证明在位者也可以主导下一个时代?
答案将在接下来几年揭晓。
而无论结果如何,谷歌AI编年史已经告诉我们:
有时候,发明未来和拥有未来,是两件截然不同的事。
lovart制图
lovart制图
本文由主机测评网于2026-01-19发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260118741.html