当前位置:首页 > 科技资讯 > 正文

AI未来十年:从模型竞赛到基础设施重构的终极对决

2025年,人工智能领域正经历一场深刻的变革:模型参数疯狂增长,而系统资源却逼近极限。人们热衷于比较GPT-5、Claude 4、Gemini 2.5的性能高低,但前谷歌CEO埃里克·施密特在2025年9月20日的演讲中揭示了更本质的洞察:

“AI的诞生,在人类历史上与火、电的发明同等重要。未来十年将塑造接下来一百年的世界格局。”

他并非讨论模型性能或AGI的远近,而是强调:AI不再仅仅是提升工具效率,而是彻底重构商业运作模式。

与此同时,硅谷投资机构a16z的对话中,芯片分析师迪伦·帕特尔指出:

“抢购GPU如今就像争夺稀缺资源,需要托关系、找渠道。但这并非核心,真正的竞争在于谁能构建支撑AI的完整体系。”

两人的观点共同指向一个趋势:

  • 参数多少不是边界,电力供应才是边界;
  • 模型优劣不是护城河,平台生态才是护城河;
  • AGI不是最终目的,实际落地才是关键。

如果说过去三年,AI的主旋律是能力爆发;那么未来十年,主线将是基础建设。

第一节|AI不再是工具升级,而是系统重构

在这场对话中,埃里克·施密特开宗明义:

“AI的到来在人类历史中,与电、火的发明处于同一等级。”

他并非强调AI有多智能,而是提醒我们:熟悉的工作方式、管理流程和盈利模式都可能被彻底颠覆。

不是让AI帮你写得更快,而是让AI决定该如何创作。

施密特表示,当前最先进的AI工具已不再仅仅是助手,而是演变为:

一种全新的基础设施,如同电网一样,成为所有组织的标准配置。

这句话直接颠覆了人们对AI的传统认知。

换言之,这不仅是个人技能提升或团队效率优化,而是组织运转方式的根本变革:

  1. 决策模式改变,AI参与核心思考;
  2. 写作、编程、客服、财务等领域都出现AI搭档;
  3. 数据输入、结果评估、反馈机制都被AI重新设计。

这种全面的组织转型让施密特意识到,不应预先制定繁琐流程,而应在实际应用中让AI逐步适应和优化。

据他介绍,其参与的几家创业公司都采用这种方法:不让AI等待完整规划,而是直接投入工作,在实践中持续调整和完善。

因此,他探讨的不是模型更强,而是组织是否应转向AI原生的新形态。

AI正从工具蜕变为企业运营的基础设施。

第二节|限制AI发展的,是电力

过去我们常以为,AI发展会被技术卡住:芯片性能不足、算法复杂导致推理缓慢。但埃里克·施密特指出,真正限制AI的不是技术参数,而是电力供应。

他引用一个具体数据:

“到2030年,美国需新增92GW电力,才能满足数据中心需求。”

这是什么概念?一座大型核电站功率约1到1.5GW。92GW相当于数十座核电站的发电量。然而现实是:美国当前在建核电站几乎为零。

这意味着,未来问题不是模型技术不先进,而是电力供应跟不上训练需求。

施密特甚至向国会举例:他们可能需要在海外训练美国自己的模型,例如在中东的发电基地。

AI未来十年:从模型竞赛到基础设施重构的终极对决 AI基础设施 电力瓶颈 模型蒸馏 平台闭环 第1张

(Sam Altman刚刚发布博客:《智能时代的无限可能》)

这种对电力的渴求并非空谈。9月23日,OpenAI CEO Sam Altman发布博客,提出更激进方向:希望建造每周新增1GW AI算力设施的工厂,用电规模堪比一座城市。

他明确表示,这需要芯片、电力、机器人、建筑等多系统协同突破。

用他的话说:“一切都始于计算。”

Altman的这一目标,不是远景展示,而是正在布局的基础建设。它正是施密特所说“AI将成为新电网”的现实化路径。

事实上:

模型训练本身并不昂贵,真正成本在于电力消耗、运行时间和设备维护。

随着推理任务增多、生成内容更复杂(图像、视频、长文本),AI工厂的电力需求正成为新算力瓶颈。

迪伦·帕特尔在另一次对话中提到,搭建AI系统时,不仅要考虑芯片速度,还需考量散热、电费、稳定性。他形象地说:

“AI工厂不是买一堆GPU就行,还要考虑电能调度和持续运行能力。”

所以这不是芯片问题,而是电力能否跟上的问题。

当电力不足时,连锁反应随之而来:

  • 模型无法训练;
  • 推理成本飙升;
  • AI工具难以大规模部署;
  • 最终失去落地可能性。

施密特认为,基础设施滞后是当前AI落地最大现实挑战。没有足够能源支撑,再先进的模型能力也无法施展。

因此,AI的下一个战场不在实验室,而在发电厂。

第三节|不是谁有芯片,而是谁能把它们用起来

即便电力解决,问题仍未结束。你真的能将这些芯片、模型、任务全部高效运行吗?

许多人以为,只要拿到H100、B200等先进芯片,AI工厂就大功告成。但迪伦·帕特尔直接泼冷水:

“现在GPU极度紧缺,得发短信四处问‘你有多少货?什么价格?’”

他接着说:

“但光有芯片不够。核心是让它们协同工作。”

换言之,芯片本身只是一个组件,真正决定AI工厂能否持续运行的是整合能力。

他将这种整合能力分为四层:

  1. 算力底座:GPU、TPU等硬件基础;
  2. 软件栈:训练框架、调度系统、任务分配器;
  3. 冷却与电力管理:不仅要有电,还需控制温度、负载、电费;
  4. 工程能力:优化模型、调优算力、控制成本的人才。

这就是迪伦所说的“AI工厂”核心:AI工厂不是单一模型或一张卡,而是一套连续的工程调度体系。

你会发现,AI工厂不仅需要大量算力,更需复杂工程配合:

  • 一堆GPU是“原材料”;
  • 软件调度是“控制室”;
  • 冷却和电力是“水电工”;
  • 工程团队是“维修组”。

简言之,重心已从“造模型”转向“建基础设施”。

迪伦观察到一个有趣现象:如今芯片公司不只卖卡,还开始“包施工”。Nvidia帮助客户整合服务器、配置冷却、搭建平台,自身演变为平台。

AI未来十年:从模型竞赛到基础设施重构的终极对决 AI基础设施 电力瓶颈 模型蒸馏 平台闭环 第2张

(图源:路透社报道)

该访谈发布同一天,Nvidia与OpenAI公布未来合作意向:Nvidia将为OpenAI提供最多10GW级别数据中心资源,投资规模可能达数千亿美元。

Sam Altman在声明中一句话印证了上述逻辑:

计算基础设施将是未来经济基石。Nvidia不只卖卡供芯片,更是共同部署、建设、运营整个AI工厂。

这揭示一个趋势:真正有能力形成闭环的,不是最聪明的人,而是最懂落地的人。

也就是:

  • 能造出模型是一回事;
  • 能让模型每天稳定运行是另一回事。

AI不再是即买即用的产品,而是需持续运营的复杂工程系统。关键在于是否具备长期运营该系统的能力。

第四节|AI能力扩散成趋势,竞争焦点在哪?

当众人争夺运营能力时,新变化已然显现。

AI模型越来越智能,但埃里克·施密特发出警告:

“我们无法阻止模型蒸馏。几乎任何能访问API的人,都能复制其能力。”

何为蒸馏?简言之:

  1. 大模型能力强但部署成本高;
  2. 研究者用它训练小模型,模仿其思考方式;
  3. 成本低、速度快、精度高、难以追踪。

就像无法复制顶级厨师,但可通过其菜肴教会他人做出八成相似效果。

问题随之而来:能力越易转移,模型本身越难限制。

AI未来十年:从模型竞赛到基础设施重构的终极对决 AI基础设施 电力瓶颈 模型蒸馏 平台闭环 第3张

(Dylan Patel,知名芯片行业分析师,专注AI基础设施研究)

迪伦·帕特尔提到一个行业趋势:

当前蒸馏成本仅占原始训练1%左右,却能复现原模型80-90%能力。

即使OpenAI、Google、Anthropic严密保护模型,也难阻有人通过蒸馏获得相似能力。

以往大家比拼谁更强;如今开始担忧谁还能控制?

施密特在访谈中说:最大模型将永不开放。而小模型扩散不可避免。

他并非鼓吹封闭,而是提醒一个现实:技术扩散速度可能远快于治理跟进节奏。

例如,现有团队用GPT-4 API蒸馏出GPT-4-lite:成本低、易部署;基本无明确标识;用户感觉几乎一样。

这带来难题:模型能力可能如“空气”般扩散;但模型源头、责任归属、使用边界都难界定。

施密特真正担忧不是模型太强,而是:

“当越来越多模型具备强能力,却不受监管、难以溯源、责任不清,我们如何确保AI可信度?”

此现象已非假设,而是当前现实。

随着AI能力扩散成为不可逆趋势。单纯拥有先进模型不再是护城河。竞争焦点已转向如何更好运用和服务这些能力。

第五节|平台的关键,是越用越准

因此最终,比能否造出模型更重要的是:能否构建一个越用越好的平台?

埃里克·施密特给出答案:

“未来成功的AI公司,不只拼模型性能,更要拼持续学习能力。”

通俗讲:你不是一次性做出产品就结束,而是建一个平台,让它用得越多越聪明、越用越好用、越用越稳定。

他进一步解释:

平台核心不是功能,而是让别人离不开你。

例如:

  • 电网不是因灯泡亮,而是因能让所有灯都亮;
  • 操作系统不是因功能多,而是因能让一批应用稳定运行;
  • AI平台亦如此,不是做出某个智能助手,而是让其他团队、用户、模型都能接入、调用、增强。

AI平台不是某个功能,而是一套持续运转的服务网络。

他还建议年轻创始人:别只问产品是否完美。要看它是否形成“用 → 学 → 优化 → 再用”的路径。

因为:能持续学习的平台,才有长期生存可能。

迪伦·帕特尔补充,这也是Nvidia成功的路径。黄仁勋任CEO三十年,靠的不是运气,而是不断将芯片和软件绑成闭环:客户用得越多,他越了解需求;越了解需求,产品越好用;产品越好用,客户越难放弃。

这样就形成良性循环,越用越值。

不是“发布即巅峰”,而是能持续成长的平台。

施密特总结清晰:你能否构建这样一个增长机制?起初可能很小,但能不断适应、扩展、更新?

他对未来AI平台成功者的判断是:

不是你写了什么代码,而是你能否让一个平台活下来,且越活越强。

结语|谁先形成闭环,谁赢未来

埃里克·施密特在访谈中说:

“AI就像电与火,这10年,将决定未来100年。”

AI能力已就绪,但方向、搭建、应用尚未明晰。

当前重点不是等待下一代模型,而是将现有AI用起来、用得好。别总想着GPT-6/DeepSeek R2何时发布,先把手头工具在客服、写作、数据分析等场景中跑通。让AI能24小时稳定工作,而非仅在发布会上惊艳一时。

这不是聪明人的比赛,而是执行力的较量。

谁能率先将AI从实验室带入现实,谁就掌握未来十年主动权。

而这场“闭环之争”,现已拉开序幕。

📮参考资料:

https://www.youtube.com/watch?v=vvlE8-MzxyA

https://www.youtube.com/watch?v=bircUYzIlMg&t=442s

https://blog.samaltman.com/abundant-intelligence

https://eta-publications.lbl.gov/sites/default/files/2024-12/lbnl-2024-united-states-data-center-energy-usage-report.pdf?utm_medium=email&utm_source=chatgpt.com

https://techpolicy.press/transcript-us-lawmakers-probe-ais-role-in-energy-and-climate

https://eta-publications.lbl.gov/sites/default/files/2024-12/lbnl-2024-united-states-data-center-energy-usage-report.pdf?utm_medium=email&utm_source=chatgpt.com