
2025年10月29日,在旧金山举办的GitHub Universe大会上。
微软首席执行官萨提亚·纳德拉对与OpenAI的合作关系进行了全面公开阐述。
自2019年起,微软累计投资130亿美元,从最初10亿追加至今,成为全球最大AI战略合作之一。
比尔·盖茨曾警告说:“这10亿美元可能会打水漂。”
但如今,GitHub Copilot每日服务数百万开发者;M365 Copilot成为Office智能入口;Azure则是全球AI模型部署首选平台。
从财务角度看,这笔投资已获验证。
但当主持人询问合作深层逻辑时,纳德拉的答案比外界想象更复杂。
他没有强调OpenAI模型多强,也没谈AGI何时到来,而是聚焦根本问题:AI当前最大挑战不是模型强大与否,而是其“锯齿状”智能不够稳定。
“锯齿状智能”是纳德拉对当前AI状态的精确描述。
具体而言,某些能力如代码生成、对话生成增长迅速;但一旦超出模型熟悉边界,质量骤降甚至失效。他用参差不齐的智能(spiky intelligence)形容此现象。
这不是聪明与否的问题,而是可靠性问题。
纳德拉认为,微软要解决的正是这种不可靠性:不追求最强模型,而是构建稳定、可长期使用的系统;需要像编译器一样可靠的智能系统,而非氛围感强却不可控的助手。
他引用前特斯拉AI总监、OpenAI创始成员Andrej Karpathy的观点:即便部分能力呈指数提升,系统整体可靠性并未同步提高。
这也是微软不急于谈论“AGI”的原因。
纳德拉看来,AGI定义因人而异,已变得模糊且缺乏实际意义。微软更关注AI能否在真实场景中产生可靠结果。
这驱动了微软一系列行动:从GitHub Copilot到M365 Copilot,他们不是打造“聪明大脑”,而是让AI像熟练工一样融入办公和开发流程,成为可信赖助手。
这不需要通用智能(General Intelligence),而需广泛智能(Broad Intelligence):覆盖足够多任务场景,并在每个场景中稳定输出有用结果。
正如纳德拉所说,在达到可信赖标准前,谈AGI为时过早。
130亿美元投入看似押注模型胜负,但纳德拉明确表示,这不是技术押注,而是组织判断。
他回忆,微软与OpenAI最初合作在2016年,当时OpenAI还是非盈利实验室,研究游戏智能体。2019年双方重新走近。
Sam Altman回来告诉他:我们真的相信扩展规律有效。
纳德拉阅读Dario、Ilya等人关于扩展定律的论文后判断:这可能打开下一代智能之门。
所谓“扩展规律”,指模型参数越多、数据越大、训练越充分,AI表现就大幅提升。
但纳德拉关注的不是技术本身,而是背后逻辑:微软从1995年就研究自然语言。我们做Office的,是知识工作工具。所以当OpenAI说“我们要认真做这件事”,我们当时判断:这不只是模型突破,更是系统机会。
微软当时首笔10亿美元投资,许多人认为大胆甚至不理性。连比尔·盖茨都说:“你这10亿美元会打水漂的。”
但纳德拉判断标准清晰:这不是关于强弱的评估,而是关于“值不值得做”的决策。
他说:
我们当时投这10亿的时候,没人说这会成独角兽。
我们只是觉得这事值得做。
这背后是微软长期思维习惯:不追风口,而是判断方向是否足够基础、深入;不投短期结果,而是看能否形成可复制方法论。
例如,他提到真正意识到系统性突破的是GitHub Copilot:我第一次看到Copilot运行时,就觉得:天哪,这真的管用了。
从那一刻起,微软不仅追加资金,还围绕此方向重组AI战略,从产品团队、开发工具链到基础设施设计,都不是为某个模型服务,而是要搭建持续运转的智能引擎。
所以今天微软再谈OpenAI合作,已不是谈论模型能力多强。
模型只是原材料,真正关键是把这些原材料接入工作流程、变成可靠产出。
微软投资的,是那个能构建、部署、集成模型的组织能力。
在GitHub Universe 2025上,纳德拉描述了Copilot新形态:它已不是一个模型,而是由多个模型、多个智能体组成的协作团队,在不同分支并行工作,再统一交付。
过去我们理解的AI助手,是ChatGPT类对话机器人或补代码小工具。但在微软内部,这种认知已彻底改变。
纳德拉用了一个新词:“Agent HQ”(智能体总部)。
他解释道,这个架构类似项目团队:
每个Agent负责子任务,如写代码、查资料、格式化文档;
不同模型可被派去不同任务,如Claude写总结、GPT做翻译、Grok查系统信息;
最后,所有内容自动汇总成输出结果,由人类开发者(或你)审核确认。
微软把这整套流程称为“任务控制系统”(Mission Control)。它不是插件系统,而是真正可调度、协作、管理的AI工作组。
简言之,微软正构建一种组织多个模型协同工作的方式,而非单纯提升某个模型性能。
GitHub Copilot是第一个验证此架构的产品。开发者已在VS Code中调用多个智能体,分别在不同分支工作。每个代理都有上下文、职责分工,还可回看过程,就像管理AI团队。
这套架构可适配不同模型。
纳德拉说:“Codex、Claude、Grok,你喜欢哪个模型,就让它在你的工作流程中执行一段任务。”
过去我们说AI辅助人类,现在微软设想中,是人类调度AI团队,就像管理远程项目组。
这套Agent HQ架构背后,是微软产品组织方式的重大转向:不是做越来越聪明的AI,而是做能整合多个智能、让它们协同工作的平台。
有了Agent HQ这样的协作系统,谁来支撑这些代理运行?
纳德拉给出一个公式:
智能,就是每美元、每瓦特能产出多少token。
AI竞争不只是模型能力,更是生产效率。
他甚至说:我现在对数据中心冷却系统的了解,远超十年前预期。冷却、电力、网络等基础设施,才是AI时代核心竞争力。这就是“token factory”(AI工厂)。
✅ 微软怎么搭建“Token Factory”
微软在AI基础设施上投入实打实。根据官方报告,2025财年,微软计划投入约800亿美元用于AI相关基础设施建设,超一半投资在美国:
你想用GPT、Claude,还是Gemini?纳德拉表示都没问题,关键是基础设施能支撑。微软要构建的是最灵活、可互换的系统。
✅ 模型不是主角,调度能力才是核心
这也是为什么微软内部研发自研模型。Mustafa Suleyman领导的Microsoft AI团队已推出三个自研模型:
这不是为自研更强模型,而是确保平台本身不依赖某一家。
纳德拉说得很直接:我很满意OpenAI做的事。但我也欢迎Anthropic、Mistral,甚至Gemini放到Azure上运行。
这不是谁赢谁输的比赛,而是微软希望所有模型产品都能在它的“工厂”里上线。
✅为什么工厂比模型更关键
纳德拉真正看重的,不是谁的模型更聪明,而是谁能更快、更便宜地生产出可信结果。
这就像传统制造业,不是光有好设计图,而是要有能力建出高效产线。微软目标是:让每一个计算、每一瓦电,都产出更多有价值token。
换句话说,微软要建的不是“最聪明的大脑”,而是一座能让所有大脑高效运转的工厂。
你不能只想要结果,还得有能力产出这个结果。
这,就是微软眼中真正的竞争力。
OpenAI,也许是过去十年科技圈最有争议的合作对象之一。
但在纳德拉眼中,它只是起点,不是终点。
130亿美元不是豪赌,而是一次战略判断:微软要的不是一家模型公司的成功,而是一整套能持续产出的智能系统。
从解决“锯齿智能”,到构建多智能体协作的Agent总部;从GitHub Copilot,到800亿美元投入数据中心和网络基础设施。微软要解决的核心问题是:如何把越来越多的模型,组织成真正可用的生产力。
这不是模型能力的问题,而是系统能力的问题。真正能落地的AI,不是工具,不是插件,而是一套能长期运行、不断进化的系统。
模型是组件,微软构建的是平台。
这,就是130亿换来的东西:不是模型,是能力。
原文链接:
https://www.youtube.com/watch?v=0d8dA8GtE8U&t=3s
https://x.com/satyanadella/status/1974281794565615825?referrer=grok-com
https://www.cnbc.com/2025/10/29/microsoft-open-ai-investment-earnings.html
https://www.nytimes.com/2025/10/29/business/microsoft-quarterly-earnings.html
https://x.com/unwind_ai_/status/1973568633378115967?referrer=grok-com
来源:官方媒体/网络新闻
本文由主机测评网于2026-01-17发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260118350.html