
2025年10月13日,OpenAI正式宣布与Broadcom(博通)达成深度合作,共同启动一项战略性系统工程:自主研发定制AI芯片。该项目计划在2026年至2029年间,部署一套规模达10吉瓦(GW)的推理基础设施系统。
在当天发布的OpenAI官方播客中,首席执行官Sam Altman明确指出:
“我们并非等待现成芯片,而是构建从晶体管到ChatGPT输出Token的全链条系统。这在我看来,是人类历史上规模最大的联合工业项目。”
这标志着告别了传统“AI公司购买GPU训练模型”的旧模式。
而是一场围绕基础设施控制权的重新布局,OpenAI正积极构建能够服务全球数十亿用户的智能计算基础。
他们选择的合作伙伴Broadcom,也非传统的芯片代工厂商。
与博通的合作,是OpenAI构建未来智能基础的第一步。
此次,我们不应仅关注“发布内容”,而需理解背后的战略判断:
为何选择此时?为何是Broadcom?为何是10吉瓦?
这不仅是新闻,更是行业发展的节奏信号。
过去几年,OpenAI的发展步伐令人瞩目:ChatGPT、Dall-E、Sora……几乎每隔数月就有新产品问世。但真正让公司感到压力的,并非竞争对手,而是一个日益严峻的问题:
支撑这些智能应用的算力已严重短缺。
OpenAI CEO Sam Altman在播客中表示:
“我们最初的集群仅2兆瓦,今年达到2吉瓦。但我们希望扩展到30吉瓦,甚至更多。”
这相当于超过15倍的增长,反映了一个事实:AI越智能,使用越多,需求扩张速度远超基础设施扩容。
原本预期:
“只需优化10倍,便足以满足需求。”
结果发现:
“优化10倍后,需求增长了20倍。”
GPU已不再即插即用的普通资源,其长期短缺特性,使其成为一种需持续供应的新型能源。
这正是Altman决定不再依赖产业链的原因:我们从最底层开始动手,甚至参与晶体管布局设计。
但这不仅为节约成本,更是为掌握智能生产能力。
正如他所说:
“我们非购买显卡、连接服务器那么简单,而是要掌控从硬件、电力、网络、模型,到ChatGPT输出每个词汇的全过程。”
此判断背后,还有一个更深趋势:
OpenAI正从一家应用智能的公司,转型为构建智能基础的公司。
其路径不再等待他人建设基础设施,而是亲手打造智能发电厂;
而这一切的起点,正是打破对芯片的被动依赖。
在已与AMD及英伟达合作的基础上,OpenAI此次与Broadcom的合作,标志着双方首次成为关键伙伴。
为何选择这家公司?
OpenAI联合创始人Greg Brockman在播客中解释:
“我们非在市场上购买现成芯片,而是从零开始,为自身模型定制芯片。”
他们认为,未来智能非靠堆积计算卡,而依赖一条高度精密的智能生产线,其中芯片设计、网络连接与软件调度等环节必须无缝衔接。
这正是Broadcom能做、他人难以做到之处。
Greg提到,他们甚至尝试:
利用自身AI模型协助设计芯片。
听起来反常:本应由工程师绘图,却让AI优化方案。结果,AI的建议令团队惊讶:“模型提供的优化建议,许多原本是芯片专家‘待办清单中一个月后计划之事’”。
这意味着,AI不仅是使用芯片的工具,已开始扮演“芯片设计者”角色。
而Broadcom,正是愿意让出底层架构设计权、与OpenAI共同重建智能流水线的伙伴。
博通总裁Charlie Kawwas强调:
“我们非简单销售芯片,而是从底层开始,与OpenAI共同构建覆盖芯片制造、电力分配、网络互联、模型运行直至ChatGPT稳定输出每句回应的全球顶级平台。
最终确保ChatGPT如何快速稳定地将回应发送给用户。
OpenAI所需的非外包工厂,而是能共同从头设计智能产能的工程伙伴。
因此,选择博通,非为节约成本,而是携手从头梳理“智能制造”流程。
OpenAI不仅为训练模型而造芯片。
其目标是让每人拥有专属AI助手,能24小时待命,随时协助处理复杂任务。
但此类智能助理,非几张显卡、几台服务器所能驱动。
Greg Brockman在播客中指出:ChatGPT正从对话工具,转型为后台伙伴,帮你自动完成任务。他举例:未来,Agent无需逐步指令,便能理解你的偏好、目标,主动工作。
但问题在于:
“要服务全球数十亿人,每人一个Agent,现有基础设施远远不足。”
因此,OpenAI旨在构建一条能大规模产出“智能助理”的工厂线:
而此生产线,必须实现全链路精准对齐。避免模型快速而硬件滞后、网络阻塞、调度缓慢成本高、任务排队长时间的断层。
最终目标非单纯提速降价,而是建立持续产出智能的生产体系。
OpenAI正迈向“AI工厂”之路:
为此,他们以自身模型优化芯片,使其理解模型运行逻辑,从而确保整条生产线从设计之初,便服务于生成可用AI助手的终极目标。
因此,OpenAI非追求更强模型,而是在搭建能规模化输出智能的生产逻辑。
他们旨在构建下一代“智能工厂”。
OpenAI在此次播客和CNBC采访中,反复提及一个数字:10吉瓦(Gigawatts)。
这非普通技术指标,而是能源级别单位。
可简单理解为:OpenAI计划在2026到2029年间,打造一套“相当于小国家电网”的智能基础设施。
Sam Altman表示:
即便今日拥有30吉瓦计算能力,仍将迅速耗尽。
他非夸张,而是在描述真实且持续扩大的智能消耗现象:
换言之,智能如电力一般,一旦可用,便迅速消耗。
Oracle联席CEO Mike Zaccaria在CNBC表示:此非传统客户合作,而是对AI成功的万亿美元级别集体押注。
他所言极是。
因当OpenAI要构建的,非单一模型,而是一整片智能“发电网络”时:投入的便非仅算力,而是整个产业链、能源、制造资源的重新配置;跟随它的也非仅技术公司,而是包括芯片、软件、云服务、甚至电力行业。
Greg Brockman明确表示:
我们当前所做之事,从规模上已超越阿波罗登月计划。
如果说,前几十年企业建的是数据中心、服务器集群,那OpenAI现在建的,是一张能持续输出智能的能源网络。
它非仅支持ChatGPT回答问题或撰写文案, 而是支撑整个AI经济的“新电力中心”。
而这10吉瓦,仅是整个计划的第一步。
从外部看,OpenAI与Broadcom的合作似技术投资项目。 但深入理解其播客内容后,便会发现他们传递的核心信息高度一致:不能等待。
Greg Brockman说:
“我们非等芯片造好再训练模型,而是先准备基础,然后逼近智能峰值。”
过去,许多科技公司习惯等待市场就绪、技术成熟、供应链完善后,才采取行动。
但OpenAI不这么想。 他们看到的是AI智能增长节奏,已快得令人应接不暇。
他们的经验表明:
其核心非按部就班执行,而是为应对已加速的未来进行动态构建。
此话意味着:
若现在不开始部署,三年后智能爆发时,基础未备,只能眼看他人领先。
这正是他们选择2025年行动的原因:
非等待价格下降,而是确保未来可用性; 非等待他人验证路径,而是亲手铺设智能通路。
OpenAI非在追赶,而是在引领整个行业发展周期。
此刻,正是此进程的关键转折点。
通过两年观察,OpenAI看到清晰趋势:智能使用方式变,产出方式亦需变。
过去十年,智能靠租; 现在开始,智能需造。
Sam Altman说:
“我们希望此合作过程能教会我们:如何从每一瓦电力中,榨取尽可能多智能。”
此话背后含义:
智能,非再是云端模型单纯计算生成的回答;
它将如电一般,被使用、消耗、调度,成为企业运营、个人工作与国家基础设施建设的一部分。
而谁能提前构建此平台,谁便可能掌握未来智能入口。
OpenAI的理念非等待产业成熟,而是立即开辟道路。他们相信,在智能时代,方向本身比确切终点坐标更为重要。
原文链接:
https://www.youtube.com/watch?v=qqAbVTFnfk8&t=3s
https://www.youtube.com/watch?v=SNDegNhVbJ0
https://investors.broadcom.com/news-releases/news-release-details/openai-and-broadcom-announce-strategic-collaboration-deploy-10
https://www.bloomberg.com/news/articles/2025-10-13/openai-broadcom-sign-10-gigawatt-pact-for-chips-networking
https://www.cnbc.com/2025/10/13/openai-partners-with-broadcom-custom-ai-chips-alongside-nvidia-amd.html
来源:官方媒体/网络新闻
本文由主机测评网于2026-01-08发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260115922.html