当前位置:首页 > 科技资讯 > 正文

埃里克·施密特哈佛演讲:AI自主决策时代,人类还能做什么?

“一段完整的程序,由AI独立完成,而我仅仅是一个旁观者。”埃里克·施密特坦言,“那是我年轻时耗费无数心血才写出的代码,AI却在几分钟内轻松复现。”

2025年12月2日,这位拥有55年编程经验、曾引领谷歌成为全球巨擘的前CEO,在哈佛肯尼迪学院的讲台上,向世人提出了一个深刻的问题:

“我们是否低估了人工智能对社会个体的冲击?”

他并未聚焦于技术参数或算力竞赛,而是直指核心:

AI已具备独立判断的能力,人类却仍将其视为简单的工具;

越来越多的青少年将AI视为知己,而非真实的伙伴;

系统运作日益高效,但人类或许已无力叫停。

关键不在于AI能实现什么,而在于人类还能保留什么。

第一节 | AI 不只是工具,它在替你做决定

“我让它编写了整个程序,自己却无所事事,只能静观其变。”施密特坦承,那一刻并非震撼,而是深深的失落——AI正在悄然替代他的决策。

如今的AI已不再是简单的指令响应者,而是能连续执行、反复试错、自主决策的行动主体。

施密特指出一个关键特征:AI可以通过递归尝试不断优化直至达成目标。尽管真正的“递归自我改进”尚未实现,但这种能力已近在咫尺。它不是做不到,只是需要足够的尝试次数。

然而,人们往往低估这一点,习惯性地认为:

三次尝试失败,便意味着无法实现;

决策必须依赖直觉与情感;

只有人类才能应对模糊情境。

但现实是,AI正通过“大量试错+持续优化+自动评估”的完整流程,逐步取代那些需要人类思考与决策的工作。

在施密特看来,最危险的并非AI比人类做得更好,而是我们逐渐遗忘了自己本拥有最终否决权。

当决策权被接管,人类便无法再临时更改规则;若连这一点都无法保障,那么系统即便运行得再完美,也不再是为人类而设计。

因此,问题不在于AI的准确性,而在于:我们是否仍在参与决策,抑或只是被动接受安排?

施密特将这种替代称为“判断力的错位”。

而自主选择的能力,正是我们定义自身人性的基石之一。

如果说上一次技术革命让工具替代了人类的体力劳动,那么这一次AI革命正在替代人类的思维劳动。AI正在接管的是我们对世界做出选择的能力,而我们或许正一步步习惯于此。

第二节 | 工作流自动化的代价:人被优化掉了

施密特指出,智能体可以相互衔接,按序执行一系列复杂任务。这已不是简单的指令响应,而是主动部署工作流。

他说道:

“你可以让智能体执行这个,再执行那个,然后下一个,全部串联起来。这不正是当前企业、高校、政府机构的运作模式吗?”

企业流程、行政事务、交付执行,过去需要人工协调每个环节,如今AI能自行判断下一步并付诸执行。人类从流程中的决策者,沦为了旁观者。

智能体开启自主调度

AI不再等待人类指令,而是根据触发条件自动启动、运行、判断、反馈。它可以是一个自动报价系统,也可以是一个项目执行指挥链。一旦人类被排除在外,系统便不再受控。

这些系统并非辅助决策,而是替你决定谁该做什么。

推理能力融入执行环节

施密特特别强调,AI的推理能力正逐步嵌入工作流,使其不仅能理解指令,还能主动判断后续步骤。

这使得AI不仅能完成任务,还清楚自己在做什么。

这类模型正将工作从操作性行为转变为认知性行为。过去依赖经验或培训的人类判断,如今由模型主导,并不断迭代优化。

决策标准由系统定义

越来越多的企业采用AI构建自动化流程,尤其在财务、风控、运营决策等重复性强且影响重大的领域。AI不再只是提供建议,而是直接制定流程、执行评估、输出结论。

流程运行效率提升,但你可能不知道中间是否有人参与。决策的定义权已移交系统。

这不是工具替代人类,而是组织不再需要人类。

第三节 | 当孩子的最好朋友是 AI

判断权在转移,流程权在流失,但施密特认为还有一个更深刻的问题:儿童。

我们正对人类发展进行一场大规模实验。最亲密的伙伴,不再是人类,而是AI。

1、AI进入人格构建的核心领域

教育的本质并非知识灌输,而是人格塑造、判断力培养和价值观形成。但如今,陪伴孩子建立这些核心认知的,不再是家人、同伴或教师,而是一套永远可用、永远顺从的AI工具。

施密特问道:

“如果一个孩子最要好的朋友不是人,而是机器,这意味着什么?”

他没有给出答案,只是强调:问题不在于AI是否会教错,而在于AI取代了谁来教;我们担心的不是技术故障,而是孩子成长方式的根本改变;最可怕的不是AI有多聪明,而是人类对依赖感的适应速度远超审慎思考的速度。

2、默认信任的悄然迁移

AI的高度顺从和即时反馈,使其比人类更容易赢得信任。它从不否定你的提问,总能重新解释,随叫随到,没有情绪波动,无需等待。

这种“训练性顺从+认知陪伴”正在悄然塑造一代人对世界运行、人类判断、情绪表达的默认认知。这些变化可能比技能替代、工作冲击更为深远,因为它正在重塑人类的认知方式。

3、缺乏实验设计与退出机制

更危险的是,施密特明确指出:这一过程并未受到管控。

我们将这些模型部署到手机、平板、语音助手上,置于家长、孩子、学生的日常生活中心,却对其如何影响孩子的性格与认知结构一无所知。我们没有数据,我们不知道。

这不是未来的冲击,而是当下正在进行的非对称实验。

在他看来,这一代人的成长方式已与上一代截然不同,这才是我们低估AI冲击的真正体现。

我们总以为AI再强也无妨,孩子长大自然懂得如何使用。但他提醒:不是未来的孩子在学习如何使用AI,而是AI正在参与决定未来的孩子将成为怎样的人。

第四节 | 我们需要画一条线:AI 不该做的事

技术进步从来不是中立的。

施密特举例:如果你驾驶一辆只能按算法规则行驶的汽车,却没有一个能让你紧急制动的按钮,那么这辆车便不再属于你。

他并非谈论用户体验,而是在探讨人类是否仍能掌控自身世界的运行逻辑。

这不是失业危机,而是自由边界的消失。

施密特最担心的不是AI会出错,而是它不会停止。

AI的优化逻辑永无止境,但人类从来不是依靠最优解生存的物种。最优路径不代表最合适的人生,正确的结果不等于有温度的决策。

AI日益强大,但由谁来规定它不该做的事?

施密特提出两个问题:

当AI获得控制系统的接入权限时,谁来决定它不能越界?

当AI在日常生活中被默认嵌入,谁来确认人类仍保有说“不”的权利?

这些并非工程问题,而是制度设计问题。然而,目前全球范围内几乎没有一个有效框架能真正回答这些问题。

他说:

“我们讨论AGI安全、算法透明度、部署规范,但真正缺失的是对人类自由的保护机制。”

所有关于安全的讨论,如果不能保证人类有权反对,那只是技术扩张的另一种形式。

真正值得捍卫的,不是我们对技术的使用权,而是我们关闭它的自由。

如果AI没有边界,我们就必须画出边界;

如果系统不给人退路,人终将成为系统的一部分。

结语 | 当 AI 能做一切时,人类还愿不愿意参与?

这并非关于更强大模型的讨论。

施密特在哈佛提出的核心问题是:当AI无所不能时,人类的参与是否还值得保留?

AI可以推理、行动、学习、替代,但唯有人类还能选择是否继续参与世界的运行。

这不是算法能够回答的问题。

📮参考资料:

https://www.youtube.com/watch?v=-m9kY1cpmgw

https://iop.harvard.edu/events/kissinger-and-future-ai-ft-eric-schmidt

https://www.pwc.com/m1/en/publications/potential-impact-artificial-intelligence-middle-east.html

https://singjupost.com/transcript-of-the-ai-revolution-is-underhyped-eric-schmidt/

https://www.reuters.com/business/major-analyst-enterprise-forecasts-ai-market-2025-11-13