
算力版图巨变:OpenAI豪掷百亿美金,携手Cerebras开启实时AI新纪元
在人工智能算力竞争日益白热化的今天,一场足以改变行业格局的联姻正式落定。智东西获悉,1月15日,全球顶尖AI实验室OpenAI与美国芯片独角兽Cerebras联合发布重磅公告,宣布将大规模部署750兆瓦的Cerebras晶圆级计算系统。
此次合作并非短期试水,而是计划于2026年启动并持续至2028年的深度基建工程。建成后,该平台将跃升为全球规模最大的高速AI推理基础设施,专门为OpenAI旗下的全球用户提供极速、实时的算力支持。
根据《华尔街日报》披露的财务细节,这笔交易的总价值突破100亿美元(约合697.36亿元人民币)。与此同时,Cerebras也正处于220亿美元估值的融资谈判中,拟筹集10亿美元资金。若融资成功,其身价将较此前暴涨近三倍,且公司仍坚定推进IPO上市进程。
值得关注的是,OpenAI的掌舵人萨姆·阿尔特曼(Sam Altman)不仅是合作决策者,更是Cerebras的早期个人投资者,这种利益绑定的深度远超外界想象。
Cerebras的核心竞争力在于其“巨型芯片”理念,其晶圆级芯片(WSE)集成度极高,单颗芯片即可承载4万亿个晶体管。OpenAI技术团队分析认为,Cerebras的优势在于将海量计算、显存与带宽完美融合在单一晶圆级架构上,彻底解决了传统多卡集群在推理时的通讯延迟瓶颈。实测数据显示,Cerebras系统的推理响应速度达到了传统GPU系统的15倍以上。
OpenAI官方强调,引入Cerebras系统是其多元化算力组合战略的关键一步。通过实现AI的“实时响应”,用户将能处理更复杂的编程任务、更长时段的连续工作流,从而显著提升平台的用户粘性与高价值工作负载的商用表现。
在公告中,Cerebras称双方的深度合作已酝酿了十年之久。OpenAI和Cerebras几乎同时创立,自2017年以来,双方团队频繁会面,分享研究成果,并坚信模型规模与硬件架构终将深度融合。早在2017年,OpenAI便在寻找英伟达芯片之外的高性价比替代方案。法庭文件显示,当时的管理层就已经将目光投向了Cerebras。为了分散供应商风险,OpenAI近期动作频频,包括与博通联手研发定制芯片,以及与AMD签署新型MI450芯片的使用协议。
Cerebras首席执行官Andrew Feldman透露,双方于去年秋季开始正式洽谈,并在感恩节前签署了意向书。Feldman认为,当前市场的主旋律是“对快速计算的非凡需求”。
OpenAI基础设施负责人Sachin Katti指出,算力是衡量OpenAI收入潜力的核心指标。过去两年,公司的算力规模与收入几乎同步翻倍,而Cerebras在处理复杂任务(尤其是编程逻辑)上的卓越表现,是促成此次大规模合作的决定性因素。
成立于2016年的Cerebras,曾高度依赖单一客户G42,但其后迅速拓展了包括IBM、Meta在内的多元化客户群。截至目前,在不计入最新融资的情况下,该公司已通过私募市场累计获得18亿美元的资金支持。
结语:推理时代降临,多元算力生态正在成型
随着大模型从“炼模型”转向“用模型”的商业化阶段,如何降低推理成本、提升反馈速度已成为核心命题。尽管英伟达在训练领域依然占据统治地位,但以Cerebras为代表的异构计算力量正通过“晶圆级架构”在推理市场撕开缺口,头部厂商的押注预示着一个多元化算力竞争时代的到来。
本文由主机测评网于2026-03-19发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:http://www.vpshk.cn/20260332258.html