岁末将至,回顾过去一年,OpenAI在人工智能领域犹如孔雀开屏,全力扩张计算资源。
先是与甲骨文达成合作,拟共同投资3000亿美元建设数据中心;又从英伟达采购价值1000亿美元的芯片;直至上月,仍在向AMD索取股票以换取芯片。
在科技巨头的推动下,AI泡沫随着GPU交易持续膨胀。然而近期,微软CEO萨蒂亚·纳德拉在一场氛围紧张的三方会谈中泼出冷水,指出电力短缺的严峻现实。
别再只盯着算力了,库存中大量芯片因缺电而无法投入使用。
电力短缺正卡住AI发展的咽喉。
那么,美国的电力究竟消耗在何处?
一方面,AI自身的能耗确实惊人。
美国能源部2024年12月报告显示,2023年美国数据中心总耗电量占全国发电量的4.4%,达到176太瓦时,相当于马来西亚全国一年的用电量。预计到2028年,这一数字可能翻倍。
而且AI的能源利用效率低下,存在严重浪费。
电能利用效率PUE是衡量数据中心能效的关键指标,计算公式为数据中心总耗电量除以服务器耗电量。
2024年全球平均PUE为1.56,这意味着仅约三分之二的电能用于GPU计算,其余消耗在制冷、供电系统及照明等辅助环节。
另一方面,美国老旧的电力系统产能不足,甚至挤占了民生用电。
从美国劳工统计局的数据图可见,2021年至2022年电费大幅上涨。在训练大模型的同时,普通居民的用电需求受到挤压。
2000年至2025年美国电价趋势图
特朗普政府还削减了海上风电项目,取消了太阳能和风能的税务减免,转而推动耗时费钱的核电发展,甚至放松环境监管。
没有电力支撑,科技巨头抢购的顶级GPU只能在机房闲置。更致命的是,这些芯片即将面临技术过期的风险。
芯片的生命周期随着新一代产品量产而迅速缩短。
例如,当前AI主流芯片如H100和A100均为2022年前发布的旧款,主要依赖产能优势,并非最新技术。后续还有2023年的H200、2024年的B200、2025年的B300等新品等待部署。
根据TrendForce咨询公司今年7月的预估,2025年全年,Blackwell系列芯片出货量将占英伟达高阶GPU总产量的80%以上,产能显著提升。
这意味着,如果OpenAI仓库中的H100因缺电迟迟无法运行,可能会直接被B200、B300等新一代芯片替代,永远失去使用机会。
这不仅造成资源浪费,还会冲击AI公司最看重的股价。AI公司的估值部分建立在GPU数量与需求的基础上。
底层逻辑是,按照大模型规模定律,GPU用量越大,模型性能越强,市场竞争力越突出。因此每当出现芯片交易消息,科技巨头股价便联动上涨。
但若大量芯片闲置,每一刻都在折射AI泡沫的消退。
迫于无奈,科技公司纷纷展开“自救”。芯片采购不能停止,毕竟你不买别人会买,但电力缺口实实在在。
较负责任的做法是自建发电厂。例如OpenAI与甲骨文在德州合建天然气发电厂,xAI在田纳西州大力基建,导致发动机供应短缺,订单排到2029年后。
此举可能招致环保部门的审查。
于是另一种转移矛盾的方式出现——将数据中心搬迁至海外。
墨西哥、智利及部分南非国家成为AI发展的能源补给站。但这些地区电力基础设施本就薄弱,如今更是雪上加霜。
在爱尔兰,数据中心消耗了全国20%的电力,引发停电、耗水等问题,对当地居民生活和生态环境造成影响。
甚至更超前的设想是,英伟达和谷歌计划将数据中心部署到太空,寻求宇宙级能源。
将芯片通过卫星送入太空,环绕太阳能电池板,可实现24小时不间断供电。真空环境依靠热辐射散热,无需担忧水资源消耗和全球变暖。但技术尚处实验阶段,太空环境可能加速电子器件老化,功率散热、数据回传及成本控制等难题待解。
与美国的仓促应对形成鲜明对比,中国的情况则从容许多。
2024年,我国数据中心总耗电量约为166太瓦时,占社会总用电量2%左右。
作为闻名世界的基建强国,我国在保障民生用电的前提下,电力供应充足,且持续推动绿色电力与碳减排。
相较于口头强调环保,我国切实将碳排放管控纳入实践。
总而言之,剖析电力短缺下的AI产业,科技的尽头不仅是电子与计算机,更延伸至物理、航天与土木工程领域。
PPT中芯片是核心生产力,现实中却是德州抢天然气、墨西哥争地皮、太空竞轨道。电闸一拉,一切归零。
照此趋势,未来高科技公司的较量,或许不再是比拼芯片数量,而是看谁能获取最多电力,确保机房灯火长明。
本文由主机测评网于2026-01-22发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260119561.html