
近期,微软AI首席执行官Mustafa Suleyman在Trevor Noah的播客节目《What Now?》中进行了长达两小时的深度对话,提出了一个核心判断:
AI的边际成本正趋近于零,权力的分配方式已发生根本改变。
这并非单纯关于AI技术的演进,而是AI使用变得普及和人人可及。
以往,行动依赖组织、流程和团队协作。如今,个人结合AI,便能完成过去整个部门的工作。AI可以代理发送邮件、生成合同、搭建网站、修改代码,甚至代表用户进行谈判。用户获得的不仅是工具,更是一种“行动权”。
Mustafa的观点十分明确:
AI正从“预测系统”转型为“行动代理”。
这意味着权力去中心化:不是技术取代人类,而是技术重新分配了“谁能执行什么任务”的权限。
每一个指令(prompt),都在悄然重塑权力的边界。
AI的核心问题已不再是它能做什么,而是谁能利用它实现什么目标。
许多AI专家热衷于讨论技术突破,但Mustafa Suleyman不同。这位微软AI CEO、前DeepMind联合创始人更关注:谁能用AI真正办成事。
这并非他近期才领悟的。
2011年,Mustafa在伦敦创业。他与Demis Hassabis和Shane Legg共同创立DeepMind,起初仅三人。他们的目标不是制造工具,而是创造一种能“理解世界”的智能。
当时,手机刚普及,App Store才上线三年。人们认为他们的想法过于超前。但Mustafa坚信:
“如果我们能开发出一种技术,真正理解人类行为,那它可能是改善人类状况最有力的方式之一。”
十多年后,他的信念未变。
在此次访谈中,他反复强调,AI带来的最深刻变化,不是变得更聪明,而是真正具备了理解和创造的能力。
他举了一个直观例子:
“如果AI观察过一百万张图像,知道眼睛的位置,它就不会把嘴巴画在额头,而会放在鼻子下方。”
听起来基础,但背后含义深远。 AI不仅是识别数据,而是能从数据中推断合理新结果,并以自身方式生成。
这与传统软件的最大区别在于:无需为每种情况编写具体程序,而是能灵活应对新场景。
用他的话说:
“我们创造的既不是工具,也不是人类,它是第四类存在。它不是你控制的按钮,也不是你雇佣的人员。”
这种特性,正是“AI权力”的核心。
AI不是赋予人更大影响力,而是将“执行能力”转化为随时可用、可复制的数字资源。
无论是发邮件、排日程、制作财报,还是处理客户咨询,AI不再只是节省时间,而是能直接“动手执行”。
从DeepMind创业到微软AI平台化推进,他始终坚守:
AI不是更聪明的顾问,而是可以实际行动的执行者。
当AI开始实际行动时,我们需要像评判人类一样评判它。人类通过行为判断可信度。我们无法窥视内心,但能观察言行。
Mustafa说,AI也是如此。
当AI被集成到应用,接入邮箱、网页和接口时,它已不是简单信息助手,而是行动代理。
Mustafa提及一个变化,听起来技术性,但本质现实:
AI的边际成本正趋近于零。
这意味着什么? 使用一次AI,几乎无需额外成本。
以前,发邮件需亲自打字;做表格需用Excel逐步输入;找人协助需雇佣团队或增设岗位。
但现在,用AI完成这些任务,成本低到可忽略。甚至,输入一句话,AI就能自动执行十步操作。
Mustafa的原话非常直接:
任何个人都能拥有大公司级别的影响力。
以往这难以置信,如今已成现实。
AI能代理查信息、回客户、排日程、写文案、打包流程,它不仅是辅助,而是帮你完成整套任务。
Mustafa举了清晰例子:向AI表达一个想法,它就能将此想法写成代码,生成网页,发布并自动推广。
过去,这一系列操作需要产品经理、设计师、工程师和市场运营配合;现在,一个人加上AI,就能走完流程。
你不再等待他人协助,而是直接交由AI执行。
边际成本降低意味着:从想法到落地,原本的人力与资金限制正在消失。
正如移动互联网时代,发布文章无需通过报社,直接使用社交平台;AI时代,你也不再需要申请资源、启动流程或组建团队,只需一句话,AI便能执行。
Mustafa强调了背后含义:
“不是组织更强,而是个人动手能力增强。AI正将‘执行力’转化为人人可获得的资源。”
这就是新起点:
你无需依赖公司,也无需承担高昂成本,AI赋予你团队般的能力。
Mustafa在对话中,谈得最多的不是AI多强,而是你能用它做什么。
他说:
预测即是权力。
能准确预测并执行的能力,就是权力本质。
那么,这种权力过去掌握在谁手中?
以往,谁能行动、发布、执行,由大公司和平台控制。但AI的到来,简化复杂操作,让普通人更易上手。
例如:在AI界面输入:“帮我把这段话翻译成英语,整理成客户邮件”。 AI便能自动识别、生成、格式化,甚至考虑语气和措辞。
他这样描述:
“无需复杂操作,只需一句话,它就能立即执行任务。”
而且这种行动可批量展开、无限复制。
个人能做的事突然增多:
你想营销,AI可写广告语、生成海报、分析受众;
你想发新品,AI能完成注册流程、生成图文、安排推广计划;
甚至你可以让AI“帮你安排其他AI”。
所有这些工作,只需输入几行字,点击几下。
当这种能力普及,过去依赖资源整合、流程审批和组织调配的权力结构正在松动。
新的权力,属于那些能正确使用AI将想法变为现实的人。
更重要的是,这种权力还会增强。Mustafa预测:
“AI很快将具备完美记忆,基于互动经验,在长时间序列上做出持续准确预测。你现在看到的是一次性预测引擎,未来将看到能长期记忆、理解你节奏并主动执行的智能系统。”
这个智能系统不是某个机器人,而是你手机、邮箱、网页中的AI。
它不再等你指令才动,而是在你未开口前,就已准备好方案、执行和反馈。
当AI具备这种能力时,权力定义正在重塑:
过去,一个人的权力看他控制多少资源;
未来,一个人的权力看他能调动多少AI执行行动。
这不是概念变化,而是工作方式彻底重写:岗位界限模糊,个人职能扩大,传统分工洗牌。
前三节探讨了AI能力提升、成本下降和权力分配变化。从平台到组织再到个人,使用AI门槛不断降低。
但问题来了:当每个人都能让AI做事,AI自身的边界在哪?
Mustafa Suleyman提出核心理念:
我们要构建的是人文主义超级智能(Humanist Superintelligence)。这类AI不能拥有动机,不能说服人类,也不能自主决策。
换言之,真正风险不在AI多聪明,而在它是否有“自主想法”,是否会在未授权时自行行动。
这就是Mustafa提出的四条技术红线:
Mustafa强调:这些红线一旦突破,我们面对的就不再是模型或工具,而是正在产生行为意图的行动代理。
为应对潜在风险,他提到关键治理概念:Containment(遏制)。
“Containment并非让AI倒退或停止,而是确保它始终在明确边界内运作。”
这意味着,每项AI能力释放都需同步建立:
Mustafa明确指出,AI风险与以往技术不同,不在“出厂时”,而在“被激活时”。
更棘手的是,当模型集成进办公软件、浏览器、手机应用甚至云端API时,许多用户并不清楚自己使用多大能力的模型。
这不是“模型风险”,而是“激活风险”。
你以为在用写作工具,实际可能在调用拥有巨大决策力的AI代理。
真正控制点不在模型参数,而在技术边界设计。这些基础边界若现在不明确建立,未来很可能被无序使用突破。
这不是未来才讨论的治理难题,而是AI融入生活前必须先划清的边界。
过去20年,技术进步主旋律是“集中”:集中算力、数据、资源,靠规模做大事。
如今,AI边际成本接近零,每个人都获得前所未有的行动能力。
Mustafa的话道出转折:
“它不只是工具,而是一种可调用的执行力。”
这就是权力重新分配。AI正将做事能力从平台交还给组织,再从组织交还给个体。
当能力交还个体时,更多人获得发挥空间,而不是让少数人更强。
也许,这正是AI最值得期待的未来:不是替代人,而是让普通人也能办成事。
https://www.youtube.com/watch?v=tQ5wO1lznCQ
https://podcasts.apple.com/us/podcast/will-ai-save-humanity-or-end-it-with-mustafa-suleyman/id1710609544?i=1000727247919
https://www.businessinsider.com/microsoft-ai-ceo-mustafa-suleyman-economics-of-information-radically-change-2024-6
https://som.yale.edu/sites/default/files/2023-06/Yale%20June%202023%20CEO%20Summit_Key%20Themes_v7.pdf?utm
https://www.madrona.com/ia-summit-2024-mustafa-suleyman-from-saas-to-agents/?utm_source=chatgpt.com
本文由主机测评网于2026-01-02发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260114178.html