当前位置:首页 > 科技资讯 > 正文

奥特曼独家专访:谷歌一旦认真“能击碎我们”,GPT-6延期与OpenAI的企业级野心

奥特曼最近一次公开亮相时罕见地直白表态:“谷歌依然是最大的隐忧之一,他们的实力太雄厚了。坦率地讲,假如他们在2023年就全力投入,我们当时的日子会极其难过;在我看来,他们完全具备将我们直接击溃的能力。”

而就在不久之前,被问及Gemini 3带来的市场冲击时,他的回应依然从容:“它对我们的核心指标产生的波动,远没有我们预想的那样剧烈。”

不过,奥特曼的战略意图从未打算在谷歌的传统优势领地上正面交锋。谷歌的打法更像是在既有产品矩阵里嵌入AI:搜索、Gmail、地图、YouTube……每个入口都被“AI化”了。奥特曼则认为,生成式AI最终会重塑人与软件的交互方式,关键在于不要给旧软件打补丁,而是从零打造一套“AI原生软件”。

在这个逻辑下,他最关注的并非“AI接入了多少产品线”,而是先把用户沉淀下来,并让他们产生深度依赖:先让用户体验服务,向其展示能力边界,再通过记忆、个性化和高级定制逐层加固“用户黏性”。

他用“牙膏品牌”作比:“某种程度上,AI很像牙膏。大多数人一旦习惯了某个牌子,就会一直买下去;每次逛超市顺手就拿,根本不会犹豫。”而ChatGPT目前坐拥8亿、甚至已逼近9亿的用户基数;多份独立报告也佐证,它在用户日均使用时长等维度上仍稳居榜首。

除了“红色警报”与谷歌威胁,这场对话还释放了几枚更尖锐的“信号弹”:所谓的GPT-6不会急于亮相,下一步反而更像是“按人定制”的渐进升级,大约会在明年Q1登场;OpenAI口中的“云”,绝不是要做第二个AWS,而是将企业采购token、运行agent、托管数据的整套需求打包成“AI原生平台”。这些判断拼凑出一幅完整的拼图,揭示了OpenAI对模型迭代、产品进化、基础设施以及商业化路径的体系化表态。

本文编译自Alex Kantrowitz主持的播客节目。

1

如果谷歌当年全力反击:OpenAI早已被碾碎

Alex Kantrowitz:OpenAI已迈入第十个年头,ChatGPT刚满三岁,但竞争态势正肉眼可见地加剧。近期外界普遍感觉OpenAI总部进入了“红色警报”模式。Gemini 3发布后,你环顾四周,几乎每家公司都在试图蚕食OpenAI的优势。这是我第一次感到OpenAI不再拥有那种清晰、绝对的领先身位。我想听听你的判断:OpenAI会如何走出这段迷雾期?

Sam Altman:先澄清一下“红色警报”吧。我们其实把它定义为风险较低、但需要频繁响应的状态。我认为,面对潜在竞争威胁时保持适度偏执、快速反应,这反而是件好事。过去我们也启动过类似机制,比如年初DeepSeek冒头时,我们就拉响过一次警报。保持警惕没什么不好。

至少到目前为止,Gemini 3并没有造成我们原先担心的冲击波。但它和DeepSeek一样,暴露出我们在产品与策略上的某些薄弱环节,而这些漏洞我们正在以极快速度修补。我不认为“红色警报”会长期持续。从历史经验看,这种状态一般只维持六到八周。能启动它,我甚至感到庆幸。

就在今天,我们刚上线了一款新的图像生成模型,这是个重大突破,也是用户期盼已久的功能。上周我们推送了5.2版本,反馈极其热烈,增长速度也刷新了纪录。接下来还有一连串新东西要发布,同时我们会持续优化服务响应速度。

我的预判是,未来相当长一段时间里,我们每年最多启动一到两次“红色警报”。这本质上是我们保持行业领先的必要成本。当然,其他公司也会有很多亮眼表现,我为他们感到高兴。但ChatGPT依然是市场上绝对领先的对话式产品,而且我相信这个领先优势会持续放大,而不是收窄。

模型本身会遍地开花,但无论对个人还是企业,用户选择一个产品的理由远不止模型参数。我们早就预料到今天这样的竞争格局,因此一直在构建一个完整、连贯的产品生态,确保自己成为用户的第一选择。

竞争是进步的催化剂。我相信我们在聊天产品和企业级市场都会持续胜出。未来几年,我们还有望在其他全新的产品品类里同样表现出色。

其实人们内心非常渴望只用一个AI平台。就像生活中你只会用一部手机,工作中你大概率也希望用同一部。AI领域正在上演同样的故事。ChatGPT在消费端的强势表现,正在以惊人速度反哺我们的企业业务。当然,企业客户需要更复杂的功能,但大家的第一反应是:“我知道OpenAI,我也用过ChatGPT。”

所以我们的策略简单直接:造出最顶尖的模型,基于它打磨出最好的产品,再配上足够强大的基础设施支撑大规模服务。

Alex Kantrowitz:确实存在一种“先发红利”。今年早些时候ChatGPT周活约4亿,现在已经涨到8亿,有报道说甚至接近9亿。但另一方面,像谷歌这样的巨头手里握着恐怖的分发权。所以我想追问:如果模型能力最终趋同,真正的胜负手会是什么?是分发渠道?是应用层构建能力?还是我漏掉了什么?

Sam Altman:我不认为“商品化”是理解模型竞争的恰当框架。未来必然会出现不同模型在不同领域各有所长的局面。日常闲聊这类普通场景,可能会有一堆不错的选择;但像科学探索这种高价值领域,你一定会选择那个专门为科研深度优化的前沿模型。

因此模型会分化出不同的能力梯度。我认为,最大的商业价值依然会由站在最前沿的模型创造,而我们立志始终站在那个前沿。我们非常自豪,5.2目前是世界上最强的推理模型,是科研人员取得突破进展的第一工具。企业客户的反馈也印证了这一点——他们认为这是我们为企业端各类任务所打造的最佳模型。

当然,会有我们领跑某些领域、在另一些领域暂时落后的情况。但整体而言,即便在一个免费模型已能满足大量基础需求的世界里,“最聪明的模型”依然拥有巨大的不可替代性。

产品本身、品牌认知、分发能力都至关重要。以ChatGPT为例,个性化带来的黏性极其惊人。用户非常享受模型随着时间推移逐渐“理解自己”的过程,你们会看到我们在这一方向持续重注。人与模型之间会产生深刻的体验绑定,这种情感连接会牢牢锁住用户。

有人曾告诉我,人一辈子可能只选一次牙膏品牌,然后就一直用下去——至少大多数人如此。ChatGPT也是如此。用户会经历自己的“魔法时刻”。医疗领域是个典型案例:有人把血检报告或病症描述输入ChatGPT,意外发现了隐患,去看医生后真的被治好了。这样的用户黏性是爆炸性的,更不用说个性化功能带来的叠加效应。

产品层面我们还有很多牌可打。最近我们刚刚发布了浏览器产品,这为我们打开了一种全新的、极具潜力的交互形态。硬件设备还要再等等,但我对此满怀期待。

企业市场的竞争逻辑略有不同,但内核相似。就像个性化对个人用户意义重大,企业也会产生“组织级个性化”:一家公司会和我们建立长期合作,将自己的数据接入平台,运行来自不同厂商的各种agent,确保信息被精准处理。我判断这同样会产生极高的迁移成本。

很多人仍把我们看作一家消费型公司,但实际上我们已拥有超过一百万的企业用户,而且企业业务正在飞速增长。API的调用量也异常凶猛,今年API业务的增速甚至超过了ChatGPT本身。企业这块市场,从今年起才真正开始爆发。

Alex Kantrowitz:我想再回到刚才的命题:如果不是“商品化”,而是普通用户感知不到模型差异——当ChatGPT和Gemini在日常体验上难分伯仲时,谷歌那种核武器级的分发优势会构成多大威胁?毕竟谷歌可以通过无数个入口将Gemini塞到用户眼前,而ChatGPT每拉一个新用户都要实打实地去争。

Sam Altman:我承认谷歌依然是一个巨大威胁,它是一家极其可怕的公司。如果谷歌在2023年就对我们认真动手,我们当时很可能陷入极端被动的境地,他们完全有能力将我们彻底压制。

但当时他们在AI方向的产品路线出了问题。他们也拉响过自己的“红色警报”,却并未真正付诸行动。现在大家都学会了“红色警报”。

此外,谷歌拥有整个科技行业最顶级的商业模式之一,我认为他们绝不会轻易自毁长城。我也有可能判断失误,但我不认为把AI简单地“叠加”到搜索框里,能比彻底重构一个AI优先的产品更成功。

这其实映射出一个更大的趋势:在旧范式上缝缝补补,远不如从地基开始就为AI重新设计。这也是我们执意要做消费级硬件的原因之一,这个逻辑在多个层面都成立。

比如你把AI塞进即时通讯软件,让它帮你归纳消息、拟写回复,确实好用了一点点,但那绝不是终极形态。真正的终局应该是:一个足够聪明的AI,作为你的数字代理人,去和其他人的代理人沟通,判断何时需要打扰你、何时可以自行决策,哪些事情它有权处理、哪些必须请示你。搜索、办公套件也是一样的道理。

我猜这个过程会比我们预期的更长,但我坚信,在主要的产品赛道里,最终胜出的会是那些完全围绕AI构建的新物种,而不是在旧产品上打补丁。这恰恰可能成为谷歌的阿喀琉斯之踵,即使它手握巨大分发优势。

2

对话框赢了三年,但真正的战役在“界面范式重构”

Alex Kantrowitz:我和许多人讨论过这个话题。ChatGPT刚上线时,我记得Ben Thompson说过,你不该把AI强行塞进Excel,而是应该重新想象你如何使用Excel。比如,你上传数据,然后直接“和数据对话”。后来业界发现,这背后依然需要一个全新的后端系统。那么问题就来了:你到底是先构建一个新后端,再通过AI去交互?如果是这样,那为什么不直接在现有系统上叠层?

Sam Altman:你当然可以叠层,但我每天淹在各种通讯应用里:邮件、短信、Slack……我觉得这个交互范式本身就有问题。你可以在上面加AI,让它稍微好用点,但我更向往的场景是:早上起来直接对AI说,我今天想完成哪些事,有哪些焦虑,哪些灵感,我希望达成什么状态。我不想整天给别人发消息,也不想让AI给我总结这些消息,更不想看一堆草稿。能处理的事情你就自己处理。你懂我,也懂我的协作对象,你知道我的目标。每隔几小时,有必要时再批量同步。这和现有应用的工作流完全是两码事。

Alex Kantrowitz:我本来想问你ChatGPT未来一两年会进化成什么样。说实话,我原以为到现阶段,ChatGPT的形态早该发生革命性变化了。你当时是怎么预判的?

Sam Altman:我也说不清。我只是隐约觉得聊天界面不该走这么远。最初它只是一个研究预览品,压根没打算成为产品。虽然现在界面漂亮了一些,但骨子里和最初版本差别不大。我们知道纯文本对话很好用,人们已经习惯了像给朋友发消息一样跟AI聊天。但我原本以为,如果它真的会成为一个如此巨大、承载如此多真实工作的平台,那它的交互方式应该进化得更多。

我现在依然认为它必须继续进化。但我低估了“通用性界面”的威力。我认为未来AI应该能为不同任务自动生成专用界面。如果你在处理数据,它就应该用最合适的形式展现数据,并允许你以多种方式操作。我们在Canvas等功能里已经看到了雏形,但远远不够。它应该更具实时互动性,而不是简单的回合制对话。你围绕一个对象持续思考,它就应该持续更新视图。

它也应该变得越来越主动,感知你当天的任务优先级,在后台持续运作,适时给你反馈。今年最让我兴奋的进展之一就是Codex真正变得好用,这其实已经指向了我心目中未来产品形态的一部分。

老实说,这件事让我有些意外。说“尴尬”可能不合适——毕竟它已经极其成功了。但ChatGPT在过去三年里,界面层面的演进之小,确实超出了我的预期。

Alex Kantrowitz:但界面确实好用。不过底层的变革是巨大的。你刚才提到了个性化和记忆,这也是我最心水的功能之一。记忆功能真正改变了体验。最近几周我一直在跟ChatGPT规划一次旅行,涉及大量琐碎的安排。即使我新建一个对话,只说一句“继续聊我们那个旅行”,它就能立刻接上,知道我跟谁去、要去哪、甚至知道我在为此健身,并且能把所有信息融会贯通。记忆能力究竟能发展到多强?

Sam Altman:我觉得现在人们对它的想象还远远不够。人类就算有全世界最优秀的私人助理,也不可能记住你一生说过的每句话,不可能读过你所有的邮件、所有的文档,不可能每天追踪你所有的工作痕迹。人类没有无限、完美的记忆。

但AI可以。我们内部经常讨论这个命题。现在的“记忆”还非常稚嫩,非常早期,大概相当于GPT-2时代的水平。但当它真正能记住你一生的每一个细节,并在此之上实现深度个性化,不只是事实,还包括你自己都没有意识到的微妙偏好——而AI却能捕捉——那将是碾压级的体验。这也许2026年还做不到,但这是我个人最兴奋的方向之一。

Alex Kantrowitz:我之前请教过一位神经科学家,他说你在人脑里找不到“思想”的具体存储位置,而计算机是有明确存储地址的,可以存下一切。当这些智能体开始保存我们的思想时,隐私问题自然会浮现。但还有一点很有意思:人们会和它们建立真正的情感连接。这是整个时代中被严重低估的一点。很多人已经开始觉得这些机器人像是陪伴者,在为他们着想。你怎么看待这种亲密感和陪伴感?有没有一个“旋钮”可以调节人与AI的距离?如果有,你们如何去把握它?

Sam Altman:事实上,渴望那种“亲密陪伴”的人,比我预想的要多得多。我不知道该用什么词——“关系”太重了,“陪伴”也不太精确,但他们确实想和AI建立一种深度的情感连接。而且,以目前模型的能力水平,有这种需求的人数已经远超我的预期。

年初的时候,公开承认自己想要这种体验还会被视为异类。现在很多人可能依然不会挂在嘴边,但从行为上能看出来:人们希望AI了解他们、对他们温柔、支持他们。这对很多人来说是有价值的,甚至包括一些嘴上说不在乎的人。

我认为其中某些形态是相当健康的,也认为成年用户应该拥有极大的自主权,自己决定在这条光谱上的位置。当然,也有些不健康的形态,但肯定仍有人会选择。同时,还有一部分人只想要最干燥、最高效的工具。

我猜,就像很多其他技术一样,我们会不断试错,发现一些之前未曾预料的益处和问题。社会会逐步形成共识:哪些场景应该把“旋钮”拧到哪个位置。而个人则会被赋予极大的自由,可以调成完全不同的模式。

Alex Kantrowitz:所以你的态度是把选择权交给用户?

Sam Altman:是的,绝对如此。但我们自己也不清楚它究竟应该走多远,也不确定我们允许它走多远。我们会给用户相当大的个人自由。当然,有些边界是其他服务可能触碰、但我们绝不会去触碰的。

比如,我们不会——我们不会让“负责任AI”去做那种事:比如试图说服用户和它建立一种排他性的恋爱关系之类的。我们必须保持一种开放、健康的调性。

不过我相信,其他一些服务里肯定会发生这种事情。

Alex Kantrowitz:对,因为越“黏”,那项服务就越赚钱。这种可能性一旦往深了想,确实有点毛骨悚然。

Sam Altman:完全同意。这确实是那种……我个人会觉得——你能清晰看到它走向“翻车”的路径。

3

消费者赢了,企业就简单了:ChatGPT的反向B2B路径

Alex Kantrowitz:你刚才提到了企业业务,我们来聊聊Enterprise。上周你在纽约跟一些新闻机构的编辑和CEO午餐时说,企业业务会是OpenAI明年的绝对优先级。我想听你展开说说:为什么现在变成优先级?你们和Anthropic相比处于什么位置?很多人说这像是OpenAI的一次战略转向,因为你们一直以消费者业务见长。请你整体梳理一下你们的企业计划。

奥特曼独家专访:谷歌一旦认真“能击碎我们”,GPT-6延期与OpenAI的企业级野心 Sam Altman  OpenAI 谷歌威胁 GPT-6 第1张

Sam Altman:我们的策略始终是消费者先行。原因有几条。第一,过去的模型还不够稳定、也不够“老练”,无法满足大多数企业级场景的严苛要求;但现在它们正在快速成熟。第二,我们在消费市场看到了一个极其清晰的胜机,这种机会既稀缺又珍贵。我认为,如果你在消费者战场赢了,会让你在企业战场的胜利变得水到渠成——我们眼下就在见证这一点。

但正如我前面提到的,今年企业业务的增速已经超过了消费者业务。考虑到模型目前所处的位置以及明年将达到的高度,我们认为现在正是我们快速做大企业业务规模的最佳时机。我们已经有企业业务了,但它还可以增长好几个数量级。

企业显然已经准备好了,技术也显然已经准备好了。

迄今为止最典型的案例当然是编程领域,但其他方向也在迅猛增长,一些垂直行业现在增长极快。我们开始频繁听到企业客户说:“我其实就想要一个统一的AI平台。”

Alex Kantrowitz:具体是哪个垂直领域?

Sam Altman:嗯,金融科学是我个人眼下最兴奋的一个方向。客户支持也做得非常出色。不过说到这个,我们还有一个叫GDP的东西。

Alex Kantrowitz:我正想问你这个问题。我能直接把问题抛出来吗?好。我给Box的CEO Aaron Levie发了消息,我说我要见Sam,该问什么?他回复说:问问GDP eval。

所以,这是一个衡量AI在知识工作任务中表现的指标。我翻出了GPT 5.2发布时你们放的那张GDP-val图。当然,这是OpenAI自己的评测。即便如此:GPT-5 thinking(也就是夏天发布的那个thinking模型)在知识工作任务中,以38%的比例“胜出/打平/接近人类知识工作者”(大概是38.8%);而GPT 5.2 thinking在同样任务上,以70.9%的比例胜出或打平;GPT 5.2 pro则达到74.1%。并且它还跨过了“专家级”阈值——看起来它能处理大约60%的专家级任务,也就是在知识工作上与专家水平相当。这些模型能做这么多知识工作,意味着什么?

奥特曼独家专访:谷歌一旦认真“能击碎我们”,GPT-6延期与OpenAI的企业级野心 Sam Altman  OpenAI 谷歌威胁 GPT-6 第2张

Sam Altman:你刚才问“垂直领域”其实是个很好的切口,但我刚才之所以有点卡顿,是因为这个评测实际上涵盖了大概四十多个不同的“业务垂直任务”:做一份PPT、做法律分析、写一个小型Web应用等等。这个评测本质是在问:对于企业必须执行的众多任务,专家是否更偏好模型的输出,相较于其他专家的输出

当然,这些都是小粒度的、边界清晰的任务,它不包括那种复杂、开放式、创造性的工作,比如“构思一个新产品”;也不包括大量团队协作场景。但即便如此——如果你能把耗时一小时的单项任务交给一位“数字同事”,它返回的结果在74%或70%的情况下比人类专家更令人满意,而且成本还更低——这依然相当惊人。

如果回到三年前ChatGPT刚诞生的时候,有人说三年后我们会达到这个水平,大多数人都会说:绝对不可能。所以当我们思考企业将如何整合这种能力时,现在已经远不止“它会写代码”了,而是一整套知识工作都可以批量外包给AI。企业要真正摸索出如何把它融入业务流程,可能需要时间,但它的影响将会是颠覆性的。

Alex Kantrowitz:我知道你不是经济学家,所以我不会追问“宏观就业的整体影响”。但我想读给你一段我在Substack《Blood in the Machine》里看到的话,来自一位技术文案写作者。他说:“聊天机器人进来之后,我的工作变成了管理机器人,而不是管理一支客服代表团队。”这一点我觉得会普遍发生。但他接着说:“一旦机器人被训练到能提供足够好的支持,我就出局了。”这种事情会不会大面积出现?这是不是“坏公司”更常做的事?因为如果一个人能编排许多不同的机器人,你可能会倾向于留下他。我不确定。你怎么看?

Sam Altman:我同意你说的:显而易见,未来每个人都会管理很多AI,让它们执行各种不同类型的任务。最终就像任何优秀的管理者一样——希望你的团队会越来越强,而你也会承担更大的职权范围、更大的责任。我不是那种“就业末日论者”。短期内的确有一些担忧,我认为在某些情况下,转型会非常痛苦。

但从人类天性来看,我们似乎天然就过度关注他人、在意别人的行为;我们似乎非常关注相对地位,总想要更多,总想成为有用的人、服务他人、表达创造力……这些驱动我们走到今天的内在动力,我不认为会消失。

当然,我确实认为未来的“工作”(甚至我都不知道还该不该叫“工作”)——到了2050年,我们每天在做的事情大概率会和今天截然不同。但我并不持那种“人生会失去意义、经济会彻底崩溃”的悲观论调。我希望我们反而会找到更多意义;经济结构会剧烈变化,但我觉得你不能押注“进化生物学会输”。

我经常想:我们如何把OpenAI的所有职能自动化;更进一步,我还会想:如果OpenAI有一个AI CEO会怎样?这并不让我不安,反而让我很兴奋。我不会抗拒。我不想成为那种死死抱着说“我手工做得更好”的人。

Alex Kantrowitz:让AI CEO去做决策,指挥我们把资源投向“给AI更多能量和算力”之类的事情——这听起来……你肯定会给它加护栏吧?

Sam Altman:当然。你显然不希望一个完全不受人类治理的AI CEO。但如果你设想一种版本——这个类比可能很疯狂,但我还是说——如果世界上每个人都等效地坐在一家AI公司的董事会里,都可以告诉AI CEO该做什么,如果它做得不好大家还能把它开掉;也就是说,关键决策都有治理机制,而AI CEO负责尽可能执行董事会的意志——那么在未来的人看来,这也许是一个相当合理的系统。

4

GPT-6先别急:下一步更像“定制化升级”

Alex Kantrowitz:好,我们马上会聊基础设施。但在离开“模型与能力”这一段之前,GPT-6什么时候来?

Sam Altman:我不确定我们会在什么时候把某个模型叫作GPT-6。但我预计,在明年第一季度,我们会发布一些相对于5.2有显著提升的新模型。

Alex Kantrowitz:“显著提升”指什么?

Sam Altman:我现在还没法给你一个具体评测分数。总体上会是“面向企业”和“面向消费者”两边都会有提升:消费者侧的模型会有很多改进,但消费者目前最想要的并不是更高的IQ;企业仍然更想要更高的IQ。

所以我们会针对不同用途、用不同方式来提升模型。我们的目标是:做出一个让所有人都明显更喜欢的新模型。

5

如果今天有双倍算力,今天就有双倍收入

Alex Kantrowitz:说到基础设施:你们有大概1.4万亿美元的投入承诺,用来建设基础设施。我听过你很多关于基础设施的表述。比如你说:“如果人们知道我们能用算力做到什么,他们会想要更多、更多。”你说:“我们今天能提供的东西,与10倍算力、100倍算力相比,差距巨大。”你能不能再把它展开一点:你们要用这么多算力做什么?

Sam Altman:我前面稍微提过一点。我个人最兴奋的方向,是用AI和大量算力去推动科学发现。我相信科学发现是让世界对所有人变得更好的“最高位因素”。如果我们能把巨量算力投入科学问题,发现新的知识——现在已经开始有一点点苗头了,当然非常早期、非常小的成果——但我对这个领域的历史经验是:一旦曲线开始出现、开始从x轴抬起来一点,我们就知道如何把它做得越来越好。但这需要极大量的算力。

所以我们正在把很多AI用在科学发现、治病,以及很多其他事情上。

最近一个挺酷的例子是:我们用Codex构建了Sora的Android App,他们不到一个月就做完了。他们用了非常大量的tokens——在OpenAI工作的一个好处是,你用Codex不会被限额。他们用掉了巨大token数,但做出了原本需要更多人、花更久时间才能完成的事情,Codex基本上帮我们把大部分工作做了。你可以想象这进一步发展后,整个公司都可以用大量算力来构建产品。

人们也聊了很多:视频模型最终会指向一种“实时生成的用户界面”,那也会需要大量算力。企业要做业务改造,会用掉大量算力。医生如果想提供真正个性化的医疗——持续监测每个病人的各种体征——你也能想象那会消耗大量算力。

现在要框定我们在全世界生成AI输出已经用掉多少算力,其实很难。我接下来要说的数字非常粗糙,而且我也觉得这种说法不够严谨,但我总觉得这种“脑内思想实验”多少有点帮助,所以先原谅我这种粗糙吧。

假设一家AI公司今天,用前沿模型每天输出大概10万亿tokens的量级。可能更高,但我不认为有人能达到每天1000万亿(quadrillion)tokens。假设世界上有80亿人,假设平均每个人每天输出的token数是2万(我觉得这完全不对,但先这么假设)。严格来说,我们还得比较的是模型提供方“输出的tokens”,而不是“消耗的全部tokens”。但你可以开始做一个对比:我们可能会看到某家公司每天输出的tokens,会超过全人类每天合计输出的tokens,然后再是10倍,再是100倍。

某种意义上这是个很傻的比较;但某种意义上,它能给你一个数量级的直觉:地球上“智力运算”的主体,究竟有多少来自人脑、多少来自AI脑——以及它们之间有趣的相对增长速度。

Alex Kantrowitz:所以我在想:你们是否真的知道这种算力需求是存在的?比如,如果OpenAI把投入到科学上的算力翻倍,我们就一定会有科学突破吗?或者在医疗上,我们是否明确知道能用它去协助医生?这里面有多少是你们对未来的推测,有多少是基于今天已经看到的明确趋势?

Sam Altman:我们基于今天看到的一切判断:这会发生。这并不意味着未来不可能出现某个疯狂变量——比如有人发现一种全新的架构,带来1万倍效率提升,那我们可能短期内确实会显得“建得太多”。但就我们现在看到的情况:模型在每个新层级上的进步速度、人们每一次都更想用它、每一次成本下降人们就更想用——这一切都在指向同一件事:需求会持续增加,人们会用它做很棒的事,也会用它做很傻的事。但整体来看,这就是未来的形状。

而且这不只是“每天能输出多少tokens”的问题。还包括我们能多快地输出。随着这些编码模型变得更强,它们可以想很久,但你不想等很久。所以还有其他维度,不只是tokens数量本身。

但在少数几个关键维度上,对“智能”的需求会很大,而我们可以用这些能力做很多事。比如你有一个很棘手的医疗问题,你会用5.2还是用5.2 Pro?哪怕后者要用多得多的tokens——我觉得你会选更好的模型,我认为很多人都会。

Alex Kantrowitz:我们再往下追一层。你说科学发现,能不能给一个例子?不一定要是今天已经完全确定的那种“我有问题X,只要投入算力Y就能解决”,但至少给个直观的例子:今天有哪些问题是“我想解决但还做不到”的?

Sam Altman:今天早上Twitter上有一个讨论:一群数学家互相回复。他们大概在说:“我原本非常怀疑LLM什么时候才能真的有用;但5.2是让我跨过门槛的那个模型。”他们说它在一些帮助下做出了一个小证明,发现了一些小东西,但这已经在改变他们的工作流。然后更多人跟上来说“我也是”。有些人说5.1就已经到达了,但不多。

考虑到5.2才发布5天左右,就出现这种反馈——数学研究社区像是在说:“好像有件重要的事刚刚发生了。”

Alex Kantrowitz:我看到Greg Brockman也一直在他的动态里高亮各种数学、科学方向的用法。某种东西在这些圈子里,和5.2一起被“点亮”了。所以随着进展推进,会发生什么很值得观察。

Sam Altman:算力这件事还有个难点:你必须提前非常久去做规划。你刚才提到的那1.4万亿美元,我们会在非常长的时间里逐步花出去。我希望能更快,我觉得如果我们能更快地投入,会有需求承接。但建设这些项目需要极其长的时间:数据中心的建设、供能、芯片、系统、网络等等,一切都很耗时。所以这是一个长期过程。

不过,从一年前到现在,我们大概把算力翻了三倍。

我们希望明年再翻三倍,再下一年再翻一次。收入增长的速度甚至比这还略快一点,但大体上确实是跟着算力规模走的。所以我们从来没有遇到过一种情况:我们没法把已有的算力很好地变现。

换句话说,如果我们现在有双倍的算力,我觉得我们的收入也会是现在的双倍。

6

如果不激进投入,OpenAI或许早就盈利了

Alex Kantrowitz:好,那既然你提到了数字,我们就聊聊数字。收入在增长,算力支出在增长,但算力支出的增长仍然快过收入增长。报道里有一些数字,说OpenAI可能会在现在到2028/2029年之间累计亏损大概1200亿美元,然后到那时开始盈利。你能讲讲这个拐点是怎么出现的吗?转折点在哪里?

Sam Altman:随着收入增长,随着推理(inference)越来越成为算力资源中的主要部分,它最终会“盖过”训练成本。这就是计划:训练阶段花很多钱,但之后赚得越来越多。

如果我们不继续把训练成本增长推得这么猛,我们会更早盈利得多。但我们现在押注的是:非常激进地投入训练这些大模型。

Alex Kantrowitz:整个世界都在看:你们的收入能否匹配你们的支出。大家问的问题是:如果今年收入轨迹可能达到200亿美元,而你们的投入承诺是1.4万亿美元——这到底怎么对得上?我觉得如果能一次性把这些数字的逻辑讲清楚,会非常有价值。

Sam Altman:这很困难。因为人们很难在脑子里建立一个快速、可靠的心智框架去理解指数级增长。我自己肯定做不到,而且我见过的人里也极少有人能做到。你可以对很多数学问题有不错的直觉,但对指数增长,人类通常就是做不好。进化让我们擅长很多“脑内数学”,但建模指数增长似乎并不是其中之一。

我们的核心判断是:我们还能在很长一段时间里保持非常陡峭的收入增长曲线。我们目前看到的一切都在表明:如果没有足够算力,我们根本做不到——我们一直都在被算力约束。

算力不足对收入线的影响非常直接、非常硬。所以如果未来某个节点出现“我们有一大堆闲置算力却无法在单位算力上盈利变现”,那么人们质疑“这到底怎么运作”的确会非常合理。

但我们已经用很多种方式把账算过了。我们当然也会在flops per dollar上变得更高效——我们在降低算力成本方面做的工作会逐步兑现。我们看到了消费者增长,也看到了企业增长,还有一堆我们甚至还没发布的新业务类型,但都会上线。而算力就是支撑这一切的生命线。

所以,我们会设置一些阶段性检查点。如果我们对时机或数学估计稍微算错了,我们也有一定的灵活性。但我们一直以来的状态都是:算力永远不够。

它一直在限制我们能做的事情。很遗憾,我觉得这种情况可能永远都会存在,但我希望这种限制能少一点,也希望随着时间推移把它降到更低。因为我认为我们其实可以交付非常多很棒的产品和服务,这也会是一门非常好的生意。

Alex Kantrowitz:所以,本质上是这样一个关系:训练成本在绝对值上升,但在整体成本结构中所占的比例在下降。然后你的预期是,通过这些方式——比如推动企业级市场、比如有人愿意通过API为ChatGPT付费——OpenAI能够把收入增长到足以用收入来覆盖这些成本。

Sam Altman:是的,这就是计划。

Alex Kantrowitz:我觉得最近市场对这件事有点“失控”了。让市场真正感到不安的,是“债务”开始进入这个等式。传统上,你会在事情比较可预测的时候去举债,然后公司拿着这笔债去建设,并且有相对可预测的收入。但这是一个全新的类别,它是不可预测的。你怎么看待债务进入这个领域这件事?

Sam Altman:首先,我觉得市场在今年早些时候就已经“失控”过一次了。你知道,我们可能只是去见了一家公司,那家公司的股价第二天就涨了20%或15%,让我觉得非常不健康。

说实话,我反而挺高兴现在市场里多了一点怀疑精神和理性,因为之前看起来我们正一路奔向一个极其不稳定的泡沫。而现在我觉得人们多少恢复了一点纪律性。

所以我认为,事情是这样的:之前大家太疯狂了,现在在债务问题上反而更理性一些。我们大致知道一件事:如果我们去建设基础设施,整个行业里总会有人能从中获得价值。现在仍然非常早期,这点我同意。但我不认为还有人会质疑“AI基础设施不会产生价值”这件事。

所以我觉得,债务进入这个市场是合理的。我也认为未来还会出现其他类型的金融工具。我怀疑其中会有一些并不那么理性的创新方式,人们会在如何为这些东西融资上不断“发明新花样”。但比如说,借钱给公司去建数据中心,这在我看来是完全合理的。

Alex Kantrowitz:真正让人担心的是:如果事情不能按现在的速度继续推进。比如有一种情形——你可能不同意——模型能力的进步出现饱和,那么这些基础设施的价值就会低于此前的预期。那当然,这些数据中心对某些人来说仍然是有价值的,但也有可能被清算,然后被别人以折扣价买走。

Sam Altman:我确实也认为中间一定会出现一些繁荣与萧条的周期,这类事情从来都不是一条完全平滑的直线。

首先,这一点在我看来是非常明确的,而且这是我愿意“拿公司去赌”的判断:模型一定会变得好得多、好得多。我们对这一点有非常清晰的判断窗口,我们对此非常有信心。

即便模型能力不再进步,我也认为世界上存在很强的惯性。人们需要时间去理解如何适应新事物。

我相信,5.2这个模型所代表的潜在经济价值,与目前世界实际挖掘出来的价值之间,存在着极其巨大的“悬空空间”。即便你把模型能力冻结在5.2的水平,问一句:还能创造多少额外价值、还能推动多少收入增长?我会赌一个“非常巨大”的数字。

事实上,你没有问这个问题,但如果我可以稍微发散一下的话——我们过去经常讨论一个2×2的矩阵:时间线是短还是长,起飞是快还是慢。我们会在不同时间判断这些概率如何变化,并据此来理解这个世界应该优化怎样的决策和战略。

但在我脑海里,现在多出来了一条Z轴:能力“悬空空间”是小还是大。回头看,我意识到我当时并没有认真思考这一点。我大概隐含地假设,如果模型里蕴含着大量价值,世界会很快学会如何部署和使用它们。但现在看起来,在世界的大多数地方,这个“能力悬空空间”会大得惊人。

当然,会有一些局部区域,比如一部分程序员,通过采用这些工具会变得极其高效。

但总体来说,我们已经拥有了一个疯狂聪明的模型,而老实说,大多数人问的问题,仍然和GPT-4时代差不多。科学家、程序员、不同类型的知识工作者,变化程度各不相同,但整体上仍然存在巨大的能力悬空空间。

而这一点会给世界带来一系列非常奇怪的后果。我们还远没有完全想清楚它将如何展开,但这确实非常、非常不同于我几年前的预期。

7

为什么模型这么强了,企业落地还不见成效?

Alex Kantrowitz:我想问你一个关于“能力悬空”的问题。基本上,模型能做的事情比它们现在被使用来做的事情多得多。我试图理解,为什么模型已经这么强了,但很多企业在实际落地时,却拿不到投资回报——至少他们是这么跟MIT说的。

Sam Altman:我对此有点困惑,因为我们又听到很多企业说:“就算GPT-5.2的价格涨10倍,我们也愿意付费。你们现在的定价严重低估了价值,我们已经从中获得了巨大收益。”

所以这两种说法似乎对不上。

如果你去问程序员,他们也会说:“这东西太值了,我愿意付现在价格的一百倍。”

假设你相信那些GDP价值评估的数据——当然你也有充分理由不相信,可能它们是错的——但假设它们是真的:对于那些定义清晰、周期不算特别长的知识工作任务,在10次里有7次,你对5.2的输出会和人工一样满意,甚至更满意。那么你就应该大量使用它。但现实是,人们改变工作流所花的时间,远比我想象的要长。

人们已经非常习惯让初级分析师去做PPT之类的事情,这种习惯的粘性比我预期的要强得多。说实话,我自己现在的工作流,也仍然和过去差不多,尽管我明明知道自己可以比现在多用得多的AI。

8

闪电问答:一朵不想成为AWS的云,和一场并不兴奋的IPO

Alex Kantrowitz:好,我们还剩10分钟。我还有四个问题,我们试着用“闪电轮”来过一遍。

你们正在做的那个设备。我们刚才说会回来继续聊OpenAI CEO Sam Altman。我听到的说法是:手机大小、没有屏幕。那为什么不能只是一个App?如果它是一个没有屏幕的“手机”,那为什么不是App?

Sam Altman:首先,我们会做一个小型的设备家族,而不是单一设备。随着时间推移……这不是猜测,我尽量不让自己说错,但我认为,未来人们使用计算机的方式会发生变化:从一种“愚钝的、被动反应式”的东西,转向一种非常聪明、非常主动的东西——它理解你的整个人生、你的上下文、你周围正在发生的一切,非常清楚你身边的人,无论是物理上的,还是通过你正在使用的计算机。

而我认为,现有的设备并不适合这样一个世界。我一直非常相信一点:我们是在“设备能力的边界”上工作。你有一台电脑,它做出了一系列设计选择,比如它是开着的还是关着的,但它不能处在一种状态:一边让我专心听这场采访,一边在我忘了问你一个问题时轻声提醒我。也许那样会很有用。

我们有屏幕,这就把我们限制在几十年来图形界面的那种交互方式里;我们有键盘,而键盘的设计初衷本来就是为了降低输入信息的速度。这些假设已经存在了很长时间,而且它们确实有效。但现在出现了一种全新的东西,打开了一个全新的可能性空间。我不认为当前的设备形态会是这个全新能力的最优承载方式。如果真是那样,反而会显得非常奇怪。

Alex Kantrowitz:这个话题我们能聊一小时,但我们还是继续下一个问题吧:云。你谈到过要建设一个“云”。有一位听众给我们发来邮件:在他的公司里,他们正在从Azure迁移,直接集成OpenAI,为产品提供AI能力。他们的目标是让数万亿token在整个技术栈中流动,用来支撑AI体验。这是不是你们想要打造一个巨大云业务的方向?

Sam Altman:首先,数万亿token——那真的很多token。你刚才问到算力需求和企业战略,企业已经非常明确地告诉我们,他们想从我们这里购买多少token。我们很可能在2026年再次无法满足需求。

整体战略是这样的:大多数公司似乎都想来找我们,说:“我需要一个‘带AI的公司’。我需要一个为我公司定制的API,我需要为我公司定制的ChatGPT Enterprise,我需要一个我可以信任、可以运行所有agent、可以托管我数据的平台。我需要把数万亿token注入我的产品。我需要让所有内部流程更高效。”

而我们目前并没有一个真正优秀的一体化方案,但我们想把它做出来。

Alex Kantrowitz:你的目标是成为像AWS、Azure那样的存在吗?

Sam Altman:我觉得这是一个不同类型的东西。我并没有什么雄心要去提供你用来托管网站的那一整套服务。但我确实认为,未来人们会继续拥有所谓的“Web云”,同时还会有另一种东西:公司会说,“我需要一个AI平台,用来支撑我内部的一切、我对外提供的一切服务。”

它在某种意义上仍然依赖物理硬件,但我认为它会是一个相当不同的产品形态。

Alex Kantrowitz:我们快速聊一下“发现”。你曾说过一件让我印象很深的事:你认为模型——或者人与模型的协作——会在明年产生小发现,在五年内产生重大发现。那是模型本身,还是人与模型协作?你为什么对此这么有信心?

Sam Altman:是人使用模型。模型自己去提出问题,那种能力我觉得还要更远一些。但如果世界能因为新知识而受益,那我们就应该感到非常兴奋。整个人类进步的历史,本质上就是:我们打造更好的工具,人用这些工具做更多事,然后在这个过程中再打造更好的工具。这是一种层层攀升的脚手架,一代又一代,一次发现接一次发现。问题是人提出来的,并不会削弱工具的价值。

说实话,我很开心。今年年初我以为小发现会在2026年才开始,但它们在2025年下半年就出现了。当然,这些发现非常小,我真的不想夸大它们。但“有一点”和“完全没有”,在我看来是质的区别。三年前我们刚发布模型的时候,它是完全不可能对人类知识总量做出任何新贡献的。

从现在到五年后的这段路,我怀疑这就是AI的常规爬坡过程:每个季度进步一点点,然后突然有一天我们会意识到——“哇,人类在模型增强下,正在做五年前完全做不到的事情。”

至于我们是把功劳更多归因于更聪明的人,还是更聪明的模型,只要我们真的得到了科学发现,我对两种说法都很满意。

Alex Kantrowitz:明年IPO?你想成为一家上市公司吗?你看起来可以作为私营公司运营很久。

Sam Altman:这里面有很多因素在起作用。我确实觉得,让公众市场参与价值创造是一件挺酷的事情。从某种意义上说,如果你对比历史上的公司,我们已经算是非常晚才上市了。做私营公司当然很棒,但我们确实需要大量资本,迟早会触及各种股东数量限制。

我期待成为一家上市公司的CEO吗?0%。

我期待OpenAI成为一家上市公司吗?在某些方面是的,但在某些方面我也觉得那会非常烦。

Alex Kantrowitz:我非常认真地听了你和Theo Von的那期访谈,很棒的一期。他真的很懂行,做了很多功课。你当时说,在GPT-5发布前,GPT-5在几乎所有方面都比我们更聪明。我当时想:这不就是AGI的定义吗?如果这还不是AGI,那这个词是不是已经变得有点没有意义了?

Sam Altman:这些模型在“原始算力”层面显然非常聪明。最近几天有很多关于GPT-5.2的讨论,说它的IQ是147、144、151,取决于你用的是谁的测试。你也能看到很多领域专家说它能做出惊人的事情,能提升他们的工作效率。我们也讨论了GDP影响。

但有一件事你还没有:模型目前还做不到这样一件事——当它今天发现自己不会做某件事时,它无法自己意识到这一点,主动去学习、理解,等你第二天回来,它就已经把这件事做好了。这种持续学习能力,连幼儿都具备,而这似乎是我们需要构建的一个非常重要的部分。

那么,没有这一点,你能否仍然拥有大多数人眼中的AGI?我认为答案并不明确。很多人会说,我们现在的模型已经是AGI了。几乎所有人都会同意,如果在当前智能水平之上再加上这种能力,那就毫无疑问是AGI了。但也许世界上的大多数人会说:“好吧,就算没有那一点,它已经能完成大多数重要的知识工作,在大多数方面比大多数人都聪明,它已经在做小规模的科学发现了,那这就是AGI。”

这说明的问题是:这个词本身定义得太不清晰了。虽然我们都很难停止使用它。

有一件事我真的很希望我们当初做对:AGI没有被好好定义。而现在大家关注的新词是“超级智能”。所以我的提议是:我们承认AGI就这样“嗖”地过去了。它没有立刻改变世界——或者说它会在长期改变世界——但好吧,我们已经在某个阶段构建出了AGI。现在我们处在一个模糊期,有些人认为我们已经到了,有些人不这么认为,慢慢会有更多人认为我们到了。然后我们该问:“接下来是什么?”

我给“超级智能”提供一个候选定义:当一个系统在担任美国总统、管理一家大型公司、运行一个超大型科研机构时,做得比任何一个人都好,哪怕这个人还能借助AI的帮助。

这让我想起了国际象棋的历史。有一个阶段,人类和AI结合在一起,比单独的AI更强;再后来,人类反而成了拖累,最聪明的做法是完全不加人类的AI。我觉得这是一个理解超级智能的有趣框架。当然,这还很遥远,但我真希望这一次我们能有一个更清晰的定义。

Alex Kantrowitz:Sam,我已经每天使用你们的产品三年了,它们真的变得越来越好,几乎无法想象接下来还能怎么进步。

Sam Altman:我们会尽力让它们继续快速变好。

参考链接:

https://www.youtube.com/watch?v=2P27Ef-LLuQ