OpenAI自主研发的人工智能芯片终于揭开了神秘面纱。
经过长达18个月的秘密攻关,这款由GPT模型“亲自”参与设计的定制芯片即将正式问世。10月13日,OpenAI宣布,将与芯片巨头博通(Broadcom)紧密合作,从2026年下半年开始,逐步部署一个规模高达10千兆瓦(GW)的庞大计算系统。这一重磅消息推动博通股价应声暴涨近10%,OpenAI也终于向外界确认,自己已亲自下场加入这场激烈的算力竞赛。
“当前的AI基础设施建设,堪称人类历史上规模最宏大的联合工业项目,”OpenAI首席执行官萨姆·奥特曼(Sam Altman)在官方声明中表示。“我们正在定义文明下一代的操作系统。”
这项价值数十亿美元的战略合作,不仅仅是简单的芯片采购,而是深入到了硬件设计的核心层面。OpenAI自主设计GPU,将开发强大AI模型过程中积累的宝贵经验,直接融入未来系统的底层硬件架构中。博通则发挥其在定制芯片领域的系统集成能力,与OpenAI共同开发并负责大规模部署,合作范围甚至扩展到了服务器机架和网络设备等关键环节。
此次合作中最引人注目的一点,是OpenAI将GPT模型也应用到了芯片设计流程中。OpenAI联合创始人格雷格·布罗克曼(Greg Brockman)透露:“我们已经能够利用我们自己的模型来辅助设计这款芯片,这确实非常酷。这帮助我们缩短了开发周期,并显著减少了芯片的面积占用。”
他分享了一个生动细节:AI模型提出的优化方案,虽然人类顶尖设计师最终也能想到,但可能需要额外花费一个月的时间才能完成。“我们曾面临一个紧迫的交付期限,当时可以选择暂停以审查AI的优化方案,或者让它持续运行到最后。我们果断决定,让它继续全速推进。”
最终效果令OpenAI团队感到满意。这一成果对于OpenAI至关重要,一旦形成设计闭环,其迭代速度可能再次远超竞争对手,甚至对整个人工智能及半导体设计行业(EDA)产生深远冲击。
萨姆·奥特曼进一步阐释了其背后的战略意图——垂直整合与端到端优化。OpenAI旨在掌控从硬件到软件的全链条环节。
“我们能够从晶体管蚀刻开始,一直思考和设计到你向ChatGPT提问时输出的每一个token。通过在整体技术栈中进行深度优化,我们可以获得巨大的效率提升,从而带来性能更强、速度更快、成本更低的先进模型。”
他强调,人工智能需求的爆炸式增长是这一切的基础驱动力。“每当你将模型效率优化10倍,市场需求往往就会激增20倍。”
这次新增的10GW算力,是在OpenAI与英伟达、AMD等行业巨头已有合作基础上的额外扩充,使其总算力储备达到惊人的26GW——这足以满足纽约市夏季用电高峰两倍多的能源需求。回顾OpenAI的算力增长轨迹更是令人震撼:从最初仅有的2兆瓦小型集群,到今年底的略超2千兆瓦,再到不久的将来逼近30千兆瓦。OpenAI的算力扩张步伐已经势不可挡。
这一切巨大投入的背后,承载着一个宏大的愿景。布罗克曼以ChatGPT的演进为例,解释了为何需要如此庞大的算力支撑。ChatGPT正从一个简单的对话工具,转变为一个可以在后台持续为你工作的智能个人代理。
“理想情况下,每个人都应该拥有一个在后台24/7为其运行的智能代理,”布罗克曼表示,“但现实是,我们目前只能向Pro用户有限推出这类功能,因为算力资源依然紧缺。我们的目标正是要打破这种瓶颈,创造一个计算不再稀缺、智能极大丰富的世界。我们期望构建一个这样的未来:如果你有一个创意想法并希望实现它,背后就有足够强大的计算能力来支持你。”
Sam Altman通过一个假设性案例说明了未来的需求潜力:“我们反复验证的一个规律是,假设我们可以将GPT6推进到感觉比GPT5高出30个IQ点的水平,它能够处理的问题不再是几个小时,而是几天、几周甚至几个月。当我们实现这一点,同时将每个token的成本降下来时,所产生的经济价值和由此激发的剩余需求将会呈现疯狂增长。”
他用具体实例来阐述这种增长:“举一个我认为已广为人知的例子,当ChatGPT能够编写少量代码时,人们实际开始用它来完成这项任务。他们会非常费力地粘贴代码并等待回复,他们会说‘为我做这个并粘贴回来’,无论模型当时能做多少,它确实完成了一些工作。随着模型能力增强,用户体验改善,现在我们有了Codex,Codex的增长速度快得令人难以置信,已经可以处理几个小时的工作量,且达到更高的能力水准。当这成为可能时,需求增长是爆发式的。”
他预测道:“或许Codex的下一个版本能够处理几天的工作量,达到顶级工程师的水平,或者再经过几个版本迭代,它终将实现。想想届时对此的需求将有多大,然后再将这种能力扩展到每一个知识工作行业。”
博通的Charlie Kawwas在本次发布中描绘了未来计算架构的演进路径:“当我们开始构建这些XPU时,在800平方毫米的面积内只能集成有限数量的计算单元。如今,我们实际上正在合作,在二维平面上部署多个这样的单元。下一步,我们将把这些单元堆叠到同一个芯片中,进入Y维度或Z维度,即三维集成。”
但这还不是终点。“我们正在探讨的最后一步是将光学技术引入其中,这正是我们刚刚宣布的——将100太字节的光学交换集成到同一个芯片中。这些技术将使计算集群的规模、整体性能及功耗水平达到全新高度,我认为其性能至少每六到十二个月就会翻倍。”
当然,实现这一愿景的道路充满挑战。布罗克曼坦言:“设计全新的芯片并在全球规模上成功交付,确保整个系统端到端无缝协作,这是一项天文数字般复杂的工作。”
财务压力同样巨大。为了支付这些高达数百亿美元的算力投资,OpenAI需要在今年预计130亿美元收入的基础上,实现指数级增长。而奥特曼的野心更为宏大,他近期向员工透露,目标是到2033年建成250GW的算力基础设施——按当前标准估算,这将耗资超过10万亿美元。
一切都已经无法停下,其他AI模型厂商似乎尚未完全反应过来,OpenAI已经建立起一个复杂而极具野心的联盟。接下来的挑战在于这些宏伟蓝图能否按时实现,以及其他科技巨头如何出手加入这场空前的算力军备竞赛。期待全人类最终能在这场史无前例的技术赌注中共同受益。
本文由主机测评网于2026-01-08发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260115948.html