
2025年9月26日,英伟达首席执行官黄仁勋(Jensen Huang)应邀出席BG2播客的专访节目,围绕“NVIDIA:OpenAI与算力的未来”这一主题,展开了一场长达110分钟的深度交流。
此次对话的核心并非探讨英伟达芯片的具体性能,而是从根本上重新定义:英伟达究竟是一家怎样的企业。
尤为关键的是,就在访谈发布前72小时(9月22日),英伟达正式宣布与OpenAI达成战略合作,将支持后者自主建设一个规模达10GW的AI工厂(即Stargate项目)。这项合作预计为英伟达带来高达4000亿美元的收入,成为其历史上规模最大的AI基础设施项目。
这已不再是简单的“售卖硬件”业务,而是一种全新的商业模式。
黄仁勋在访谈中清晰阐述了三个核心观点:
OpenAI极有可能成长为下一家市值万亿美元的公司;
AI不再仅仅是一个模型,而是一个需要持续供能的“智能工厂”;
每个国家、每家企业,都需要开始建设自己的“AI发电厂”。
英伟达的角色,正从芯片供应商转变为全球AI算力的调度平台。
他并非仅仅在阐释未来,更是在亲手构建未来。
这场对话的真正亮点,在于黄仁勋亲口确认了一项关键合作:
我们将与OpenAI共同建设10GW的AI工厂。OpenAI正从租用算力,转向自主构建算力基础设施。
对外界而言,这看似一笔巨额交易:投资额预计约1000亿美元,若全线采用英伟达设备,其回报可能接近4000亿美元。
但在黄仁勋看来,这不仅是一桩生意,更意味着商业模式的根本转型:过去,AI模型如同租用服务,算力按需取用;如今,AI企业开始自建电厂,拥有独立的发电系统。
他表示:“OpenAI正从依赖Azure,转向建设自身的算力基础。如同X.ai和Meta那样,致力于成为真正的超大规模公司。”
换言之,OpenAI不再仅是开发出GPT的AI公司,它旨在建立一个能够持续产出智能的长期发电厂。
英伟达在其中扮演的角色,已不再是提供芯片的供应商,而是协助客户启动整套“AI发电厂”的合作伙伴。
更为重要的是,这并非孤立事件。黄仁勋指出,英伟达目前已同步推进三个电厂项目:微软Azure(与OpenAI联合使用)、OCI(由Oracle和Softbank联合建设)以及CoreWeave自建云计算平台。而与OpenAI的此次新合作,是第四个,也是最全面、最深入的一个。
这是英伟达首次直接参与从芯片层、软件层到数据中心层的全方位建设,助力OpenAI从零到一构建完整的AI发电厂。
智能需求已不再偶发,而是如同水电一般成为日常必需品。模型仅是其中一环,真正关键的是支撑其持续运行的算力基础设施。
竞争的焦点已发生根本性转变:这不再仅仅是训练模型的竞赛,而是看哪家公司能够拥有并运营自己的AI发电厂。
黄仁勋此次谈及最多的并非算力速度的提升,而是算力的持久性与连续性。
他指出,以往的AI更类似于计算器,提问即得答案;如今的AI则开始像人类一样,在回答前需要经历思考、检索资料、组织逻辑的过程。
“过去的推理是一次性的,问一句,答一句。现在是链式推理:先思考,再查阅,再思考,最后回答。”
这背后的根本变化在于:AI如今不再仅仅是一个模型,而是一个完整的推理流程。它不再只擅长记忆题和填空题,而是需要进行分析、推导、综合信息,甚至临时学习新的方法。
由此带来两个显著结果:
一是推理过程日益复杂。黄仁勋提到,当前许多AI系统在生成最终答案前,需要先进行数十步的思考,每一步都涉及数据调取和算法调用。
现今,AI发展包含三个阶段:预训练、后训练、推理。越是后期阶段,计算耗时越长、过程越复杂。
他甚至给出了明确判断:
“推理需求的增长,不是100倍,不是1000倍,而是100亿倍。”
二是推理开始持续在线,不再只是临时调用。这正是推理从一次性计算转向AI工厂连续运转的核心原因。
今天的软件是编写一次、运行一次。明天的软件,将是实时生成、持续运行。
过去,一个模型处理一条指令可能只需运行几秒;现在,一个智能体需要保持持续在线,随时应对新的任务。
模型不仅需要更多时间进行思考,也需要更多资源来维持持续运行。
黄仁勋举了一个简单例子:
当前OpenAI的用户数量正呈指数级增长,同时,每位用户的使用频率和单次推理时长也在指数级攀升。
用户基数扩大、使用时长增加、推理复杂度上升,三重增长因素叠加,使得需求规模直接跃升至一个全新的量级。
这也清晰地解释了为何当下需要建设AI工厂:并非为了追逐风口,而是因为过去的计算模式已无法承载新型推理方式带来的负荷。
接下来,英伟达面临关键抉择:
是继续扮演“芯片销售商”的角色?还是转型成为为AI推理持续供能的“发电站”?
黄仁勋谈到,当前业界普遍讨论AI算力短缺、GPU供应不足。
但他明确指出一个关键点:
全球范围内的计算短缺,并非因为我们不愿生产,而是客户提供的需求预测,全都严重低估了实际需求。
过去几年的模式相对简单:客户提出需求数量,英伟达据此生产。但每一次的预测结果,都远远低于实际使用量。
因此,他们始终在追赶需求的路上。从未有一次预测是充足的。
这并非个别公司的特例,而是整个行业步入“推理爆发期”的普遍现象。
在此背景下,英伟达也开始重新定义自身所提供的价值:
过去,是销售芯片;现在,是供应产能。
如今已不再是企业小规模采购几块GPU的时代,而是动辄部署数十万片、投资上百亿美元的超大规模建设。
黄仁勋在播客中阐述,英伟达正在为AI工厂提前规划并布局整个供应链:
为何需要如此?
因为一个10GW的AI工厂,需要集成数十万个GPU,如果没有提前一年进行全链条布局,根本不可能实现同步交付。
他进一步解释道:
“试想,要启动一项价值数千亿美元的建设工程,你必须提前一年下单晶圆、预订存储芯片,并备齐所有组件。没有人能跟上这种节奏,除非你已经规划好了整条产线。”
这意味着英伟达的角色正在发生转变:从等待客户下单的供应商,转变为帮助客户建设AI发电厂的合作伙伴。换言之,他们如今售卖的已不再是GPU硬件,而是确保AI能够持续运行的算力产能。
这种新模式类似于能源行业:
客户购买的不是电线或电池,而是稳定的电力供应。同样,客户购买的也不是芯片或电路板,而是“稳定的智能产出”。
英伟达正在成为AI时代的“电力公司”。
评估AI工厂的价值,不在于比较谁拥有的芯片数量多或单一芯片性能强,而在于谁能将所有的部件高效组合,形成一套完整的智能生产解决方案。
黄仁勋表示,当前的竞争已不再是硬件跑分的比拼,而是看谁能将芯片、内存、网络、电力、软件等元素完美整合,让每一瓦电力、每一块计算卡、每一条冷却通道都发挥出最大效用。
他给出了具体数据:
“英伟达的顶级芯片Blackwell相比上一代性能提升30倍,这并非单纯依靠晶体管性能增强,而是通过协同设计实现的。”
这背后的核心设计理念,即他所提出的:极限协同设计(Extreme Co-Design)。
何为协同设计?
一个通俗的比喻是:传统方法如同先造一台强劲的发动机,再搭配通用的底盘和轮胎。而英伟达的做法,则是将发动机、底盘、方向盘、导航系统、冷却装置等所有部件进行一体化设计。
具体来看其实现:
所有这些设计的组合,只为实现一个目标:让每一台机器、每一瓦特电力,都能产出更多有效的智能。
如今,英伟达每年同步研发约六七款不同的芯片,目的并非追求单一芯片的发布速度,而是确保这些芯片能够形成一个完整的产品体系,精准覆盖从训练到推理的不同场景需求。
然而,仅仅做到“能够组合”还远远不够。
黄仁勋提出了另一个核心评估指标:在单位功耗下,谁的AI工厂能够产出最多有效的AI计算。
为何这一指标如此关键?主持人询问,客户如何评估哪家AI工厂值得投资?
黄仁勋的回答指出:当前最稀缺的资源并非芯片,而是电力。
一个客户的数据中心,其功率上限可能仅为2GW。你无法无限度地扩容电力供应、土地面积和冷却设备。因此,核心问题转变为:每一瓦特电力,能够产出多少智能?
他的表述非常直接:
“即使竞争对手免费赠送芯片,如果其解决方案的产出效率低下,你使用它就是在浪费预算。”
他提到曾亲耳听到一位客户的CFO如此进行成本核算:
这也解释了另一个外界常有的疑问: “为何客户愿意向英伟达下达价值500亿美元的大型订单?”
黄仁勋表示,客户购买的并非芯片的参数指标,而是英伟达能否如期交付整个工厂、能否支撑起超大规模运算、能否确保AI系统稳定运行的综合能力。
英伟达能够提前一年备齐晶圆、封装材料、内存、交换芯片、主板、冷却系统等所有关键部件,目前没有其他对手能够做到这一点。
最终的竞争将围绕三件事展开:
黄仁勋指出,当前全球的关注点似乎集中在GPU是否短缺、芯片供应是否充足。
但他希望提醒各方:真正的核心问题,并非在于计算卡的有无,而在于你的国家是否拥有属于自己的AI发电厂。
每一个国家,最终都将建设自己的AI工厂,就如同需要建设自己的发电厂、通信网络和云计算中心一样,这将成为一项关键的基础设施。
过去我们强调数据主权,现在则需要关注智能主权。
如果一个国家没有自己的AI工厂,将意味着三件事:
黄仁勋在访谈中多次强调:
“AI就是新型电力。如同没有电力,很多事情都无法开展。没有AI产能,未来许多领域的发展也将受限。”
✅ 不止于美国:全球多国已启动AI电厂建设
节目中,主持人询问是否只有美国在大力推进这一方向?
黄仁勋的回答是:远不止美国。目前,欧洲、中东、以色列、沙特阿拉伯、阿联酋等国家和地区,都在加速建设自己的AI工厂。
这些国家未必都拥有自己的顶尖AI模型公司,但它们已然意识到:要掌握未来的智能能力,必须构建自主的AI推理基础设施。
沙特已公开宣布计划建设国家级的AI基础设施,并与英伟达展开合作;
阿联酋也成立了专门的国家级AI投资平台,重点投资于底层模型和算力架构。
未来,一个国家不可能依靠长期租用他人的GPU来支撑其国家级的AI能力,就如同不可能永远依赖他人的电厂来供电。
✅ 中国的情况如何?当然密切相关
在这场全球AI竞赛中,中国是一个不容忽视的重要参与者。
即便面临地缘政治的复杂因素,黄仁勋依然明确表示:
中国是全球最大的市场之一。它必将建立起自己的AI工厂,这一点毫无疑问。
他指出,中国不仅拥有华为这样的企业,还存在大量具备强大建设能力的企业:它们工程能力出色、执行速度迅速、在资源调配方面经验丰富,并且拥有较为自给自足的产业链结构。
黄仁勋对此的判断非常直接:这并非简单的脱钩,而是一场激烈的竞赛。
✅ 谁能胜出?不看政策宣示,而看谁先“通电”运行
全球每个国家几乎都站在同一条起跑线上:
黄仁勋总结道:
“AI工厂的基础设施建设,将成为下一个衡量全球核心主权实力的关键指标。”
换言之,竞争的关键不在于拥有多少GPU芯片,而在于是否具备产能调度能力,能够自主运行智能任务,让国内的企业、政府机构、医院、法院、学校等都能连接上自己的AI发电厂。
这已经超越了纯粹的技术竞争范畴,演变为一场看谁能够率先将AI工厂“通电”投产的竞赛。
黄仁勋的这场深度对谈,核心并非讨论AI模型本身有多强大,而是聚焦于AI工厂能够产出多少有效的智能。
能否真正建设出来?建成后能产出多少实际价值?这才是未来的核心竞争力所在。
英伟达的角色已经发生了根本性改变:从销售芯片转变为销售AI产能,从一家GPU公司转型为“智能电厂”的合作伙伴。
接下来,所有国家和企业都将面对同一个现实:智能能力的上限,将取决于你拥有多少电力资源,能够支撑多大规模的AI系统持续运行。
全球范围内关于大模型的竞赛,正从产品发布会舞台,迅速转向“工业建设”这个主战场。
OpenAI建设10GW工厂,各大科技巨头自研芯片并建厂,每一个动向的背后都指向同一件事:比较谁能够率先将智能转化为实实在在的产能,比较谁能让每一度电力产生出更多有效的智能。
黄仁勋已经开始精确计算这笔关乎未来的经济账。
那么,你的下一步,是否也该算一算了?
原文链接:
https://www.youtube.com/watch?v=pE6sw_E9Gh0
https://timesofindia.indiatimes.com/technology/tech-news/nvidia-ceo-jensen-huang-elon-musks-xai-did-in-19-days-what-everyone-else-needs-/articleshow/124063499.cms
https://www.pcgamer.com/hardware/processors/jensen-huang-says-intel-and-nvidia-have-been-discussing-and-architecting-solutions-now-for-coming-up-to-a-year-and-kept-it-really-quiet
https://www.businessinsider.com/nvidia-investing-up-to-100-billion-openai-ai-deal-2025-9?utm
https://blogs.nvidia.com/blog/openai-nvidia/
来源:官方媒体/网络新闻
本文由主机测评网于2026-01-04发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260114811.html