2025年11月6日,微软正式宣布成立MAI超级智能团队(MAI Superintelligence Team)。这一团队由Microsoft AI首席执行官Mustafa Suleyman直接领导,旨在独立研发超级智能,不依赖于OpenAI的模型,从而掌握自主控制权。
没有举行发布会,也没有现场演示。这支被誉为全球顶级AI研究团队之一的组织,专注于一项核心任务:划定智能的边界。
在对话中,Suleyman清晰地表达了立场:
我们永远不想要一个拥有这三种能力的系统:
自我改进、完全自主、独立设定目标。
当ChatGPT、Claude和Gemini的竞争日益白热化,微软却选择率先划出红线。
微软并未终止与OpenAI的合作,仍保持主要投资方和模型部署平台的角色。但MAI团队的成立,标志着微软正式开启一条并行且独立的研发路径。
(《财富》头条:微软不再完全依赖 OpenAI,正式加入“超级智能”竞赛)
与OpenAI追求通用平台不同,微软的方向是:不单纯追求更强,而更注重稳定;不追求泛化能力,而确保可控性。
那么,Suleyman所强调的以人为中心,究竟意味着什么?
安全、落地和边界,能否真成为超级智能下半场的主导逻辑?
Mustafa Suleyman没有用技术术语开场,而是直接宣告了微软开发超级智能的核心原则。
我们永远不想要一个系统,它不仅比任何个人都聪明,甚至超越全人类智慧的总和,并且还具备三种能力:自我改进、完全自主、独立设定目标。
换言之,微软要避免打造一个最终可能失控、脱离人类掌控的系统。
这是一种明确的立场,而非单纯的技术路线。
许多公司专注于训练能力更强的AI,然后通过对齐机制确保其不伤害人类。Suleyman不认同这种做法,他认为应从源头就规避可能脱离控制的路径。
控制、遏制和对齐,是我们从项目启动第一天就写入的三个基础。
这是微软成立MAI团队的初衷:不再依赖外部通用模型,而是自主建立一条更稳妥、更受控的超级智能研发路线。
与OpenAI的合作仍在继续,但Suleyman发出的信号很清晰:微软需要掌握对超级智能的设计权和控制权。
因为行业内部并非所有人都赞同这一点。
有些人相信,只要AI与人类价值观保持一致,即使它拥有完全自主权,也值得信任。
但在Suleyman看来,这种想法过于乐观:
“我认为这是一个非常非常重要的区别。微软的选择基于不同的风险观念:不将安全寄托于事后补救,而是从源头规避不可预测的风险。”
这背后的逻辑非常明确:问题不在于AI是否会出问题,而在于问题出现时,人类是否有刹车可踩。
因此,微软另起炉灶,并非因为OpenAI不够强大,而是因为这套超级智能必须从安全可控开始,就写在“说明书”的第一页。
微软的新团队MAI,将注意力聚焦在三件事上:医疗、日常助手和安全护栏。
为什么是这三个方向?Suleyman解释道:
“我们是一个平台的平台,许多人将使用我们构建的模型。我们的任务,是提前思考那些未来应用必须通过哪些测试,才能被信任地使用。”
他用“橡胶正在接触路面”来形容这一转变:AI不再停留在实验室和概念层面,而要进入现实使用场景。
一、医疗:比医生更快,但必须可解释
在访谈中,Suleyman将医疗诊断放在首位。这个领域既能体现超级智能在高精度、强计算和处理不确定性上的价值,也最容易引发风险。
微软的目标不是让AI取代医生,而是让医生能理解AI的思路。
AI可以从海量影像中发现早期癌变,也能在药物组合上提供方案,但每一个推荐都必须可追溯、可解释。
安全并非空谈,它代表三个核心:系统必须可理解、可解释、受约束。
二、日常助手:帮人做决定,而不是替人生活
Suleyman说,AI应成为用户的助手,而非主角。
微软希望开发的是那种能理解用户需求、记忆偏好、给出合适建议的智能助理,但它永远不会越界。
我们想要的,是能加速人类潜力的智能,而不是取代人类互动。这类AI会记得你的行程、帮你整理资料、甚至协助创作,但它的设计原则是:帮助而不主导,理解而不干预。
三、安全护栏:先把防线建起来
谈到安全,Suleyman指出了一个尴尬的现实:航空、汽车、能源行业都花了几十年建立层层安全机制,而AI领域目前几乎空白。
“今天我们在AI中真的没有多少这样的机制。”
MAI团队正在研究如何提前发现风险,例如通过红队测试、设置蜜罐诱导异常行为、反复训练模型在极端情况下的反应。
这些手段的根本目的,是将最终控制权牢牢置于人类手中。
微软要在智能变强之前,先确保其稳定。
在Suleyman看来,AI不应成为一个完全不懂的黑盒,而应成为一个能解释、能被纠错的帮手。
它是一种更稳定的智能,永远被人类遏制和对齐。
这也是他口中人本超级智能的真正含义:先落地服务人类,再谈超越人类。
Mustafa Suleyman对那种无限堆砌算力的技术演进路径表达了质疑。
他说:
“我们愿意放弃某些模型能力提升,只为优先确保人类能理解它在做什么。”
这听起来几乎是逆行业潮流的。当其他公司追逐更强模型、更高吞吐量和更复杂架构时,Suleyman却表示,不是做不到,而是不该那样做。
为什么?
因为他关注的不只是AI能力,而是人类是否还能看懂它,并始终参与其中,保持控制。控制的核心,是让AI使用我们能理解的语言和方式来沟通。
Suleyman警惕的是所谓向量到向量的AI内部交流方式。模型之间可能用高维数学表达互相沟通,但人类却无法解释中间过程。
微软不接受这种不可追踪的交流。
所以他明确提出:AI之间的通信,必须使用我们能理解的语言。
这并不是效率最优的做法。Suleyman也承认,让AI用自然语言交流,确实会牺牲部分运行效率。但他坚持,这才是对人类负责的做法。
更深一层的担忧在于:谁来监督负责安全的AI?如果所有监督都交给另一个AI,这就只是把问题从一个黑盒转给另一个黑盒。
换句话说,不能让AI管理AI,然后告诉人类一切尽在掌握。
OpenAI追求的是多模态通用平台,而微软关注的是:企业用户如何敢用、政府如何能监管、人类如何随时踩住刹车。
Suleyman的态度非常坚决:
我们不能不惜一切代价前进,那将是一个疯狂的自毁任务。
从语言协议、通信透明,到性能让位于可控,微软要的不只是模型,而是人类有解释权的智能工具。
在技术边界尚显模糊的当下,微软必须主动为此划清红线。
这不是一场简单的模型之争。
微软并非不追逐前沿,而是更早意识到:超级智能的门票,不在于参数数量,而在于控制能力。
MAI团队的设立,是为了在模型日益强大时,先设定规矩、确保可控、划定边界。
在Suleyman看来,AI的落脚点不是接管世界,而是留在可控边界内,把现实中的三件事先做好:医疗别出错,助手别越界,系统别失控。
这听起来克制审慎,但正因其稀缺,才显得尤为重要。
超级智能不是未来某一天突然爆发的成果,而是我们现在选择如何构建它、如何约束它、如何使用它。
这一次,Suleyman不是在竞争谁更快,而是在提醒:
别忘了我们的目的地。
https://www.youtube.com/watch?v=aIifmbE2Ztw
https://www.reuters.com/technology/microsoft-launches-superintelligence-team-targeting-medical-diagnosis-start-2025-11-06/
https://fortune.com/2025/11/06/microsoft-launches-new-ai-humanist-superinteligence-team-mustafa-suleyman-openai/
https://microsoft.ai/news/towards-humanist-superintelligence/
本文由主机测评网于2026-01-22发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260119531.html