
在2026年即将来临之际,柏林举办的一场公开对话中,被誉为AI教父、诺贝尔物理学奖得主的杰弗里·辛顿(Geoffrey Hinton)分享了人工智能正在经历的根本性转变:
AI不再仅仅是提供答案,而是开始自主思考、生成数据并执行任务。
这一观点背后,隐藏着三重正在发生的变革:
具备推理能力,幻觉现象逐渐减少。
能够自我学习,不再依赖人工灌输数据。
能够主动执行任务,直接交付成果。
体现在现实中:医疗诊断的主导权正在转移,并非医生失业,而是诊断结论的决策权在变化。教育领域加速分化,一对一AI导师、数学探索和科学发现都在提速。
当AI从被动响应转变为主动执行时,人与机器的协作关系需要重新定义。
回顾过去两三年,聊天机器人最令人头疼的问题是什么?
“一本正经地输出错误信息。”
然而,Hinton指出:这种情况即将大幅改善。并非因为它记忆了更多数据,而是因为它开始掌握推理能力。
那么,推理能力从何而来?
他用一个比喻解释:每个词汇都像一块形状复杂的乐高积木,在句子中会随上下文微妙变形,这些词块相互咬合,共同构建含义。AI并非将语句转换为逻辑符号再行运算,而是在这些词块间寻找最自然的连接路径。
一旦AI能够更精准地组合这些词块,推理能力便自然而然地显现。
长期以来,符号AI在该领域占据主导地位。其信奉者认为,推理的本质在于将英语句子转换为逻辑形式,再应用符号规则进行推导。他们对此深信不疑,甚至视其为不证自明的事实,而非假设。
Hinton直言不讳:这完全是谬论。
那些提倡神经-符号混合系统的人,本质上是在试图保留旧有框架,仅让神经网络充当辅助角色。这好比承认智能手机更优越,却仍用它来控制算盘,完全不得要领。
推理过程完全在语言层面完成,无需转化为逻辑形式。
理解并非将句子转换为逻辑符号,而是将词汇转化为能够相互作用的的高维向量。这更类似于蛋白质折叠,而非逻辑运算。
未来的AI在输出一句话后,会多执行一步:回顾刚才的表述,对照事实或既有线索,若发现不合理之处便进行修正。这不仅仅是准确率的提升,更是AI开始拥有一种新能力:自我验证。
过去它仅能输出,如今它能审视自己的输出是否合理。
以往它只负责回答,现在它会质疑自己的答案。
这种从输出到验证的闭环,使AI首次具备了类似人类的自我纠错机制。对用户而言,最直接的感受是准确率提升、逻辑更连贯、胡编乱造现象显著减少。
然而,更深层次的变革在于:AI不再是一个被动响应的工具,而是一个能够主动检查、修正并优化自身输出的系统。它开始拥有一定程度的自主性。
这是能力维度的根本性突破。
长久以来,训练AI模型始终离不开“堆料”。
即堆砌算力、堆砌数据,将全网的文章、小说、百科、论坛悉数抓取。
然而,问题随之而来:全网公开数据已接近枯竭。这正是缩放定律(Scaling Law)遭遇的首个瓶颈。若想进一步提升模型表现,需投入数倍资源,但收益却日益递减。
Hinton认为,下一代AI将不再依赖人类投喂,而是自主生成数据。
他以AlphaZero为例进行说明。
这个AI并非依靠人类棋谱学习围棋,而是通过自我对弈,在实战中不断学习,愈战愈强,最终超越人类冠军,更精准、更稳定。
它通过自我对弈生成了无限的训练数据,无需等待人类提供更多棋谱。
Hinton预测,数学将成为AI自我训练最容易取得突破的领域。由于数学是一个封闭系统,AI可以自主提出猜想并尝试证明。如同AlphaGo自我对弈一般,AI将自我“玩转数学”:
我能证明这个命题吗?
我能证明那个命题吗?
大约十年内,AI数学家可能远超人类水平。它能够持续推演,生成无限训练数据。
不仅限于数学。Hinton赞同DeepMind领导者戴密斯·哈萨比斯(Demis Hassabis)的观点:AI将在科学发现中扮演越来越重要的角色。物理、化学、生物学等各个领域都将迎来突破性进展。
大语言模型亦将如此。
正是由于具备推理能力,AI能够通过自我验证生成训练数据。这好比一位员工白天工作,晚上复盘,发现问题后次日自动改进。AI不再被动接收数据,而是主动消化、验证、优化。
过去的训练逻辑是:数据越多,模型越强。因此业界拼命收集、清洗、标注数据。
如今的转变是:模型能够自主生成高质量训练数据,通过推理验证自身输出,从错误中学习。
换言之,真正强大的AI并非依赖数据涌入,而是通过反复演练,自主打通理解链条。这不仅是技术优化,更是训练范式的根本转变——从外部输入驱动,转向内部循环驱动。
过去的AI需要人类教导,未来的AI将自主学习。
2025年最热门的AI词汇非“智能体”莫属。
它并非一个抽象概念,而是一种全新的“生物”形态:一个能够理解任务、分解流程、并主动执行任务的AI。
Hinton表示:
“我们已经看到智能体在互联网上帮助人们下单、规划日程,接下来它们将主动与其他智能体进行协商。”
这不再是智能搜索或高级助理,而是它开始接手你原本需要亲自完成的部分事务。
在对谈中,Hinton提及他2016年曾预测AI将在5年内取代放射科医生,虽然低估了所需时间,但这一进程正在加速。美国食品药品监督管理局(FDA)已批准超过250个AI医学影像应用,AI能从视网膜图像中发现医生未曾察觉的信息。在诊断准确率方面,AI达到50%,医生为40%,两者结合可达60%。北美每年约20万人死于误诊,这一数字将大幅下降。
教育领域同样在变革。
一对一导师能使孩子学习速度提升两倍,因为导师能精准把握孩子的知识盲点。AI导师则能做得更好,因为它掌握数百万儿童的学习数据。不仅儿童教育,成人培训也在经历变革。Hinton以自身经历为例:他在谷歌为员工讲解神经网络时,内容枯燥乏味。而AI导师能提供更好的互动体验,更高效。
不仅医疗和教育,AI在日常工作中的转变更为显著。
过去你如何使用AI?指令它撰写文案、整理总结、安排日程。如今,AI会主动询问:您想预订酒店还是购买机票?若预算有限,我建议先订返程票。未来,它甚至可能无需询问,直接完成预订。
一旦AI具备这种主动性,它便不再仅仅是工具,而更像一个能够完成工作的“同事”。
这正是“智能体”的体现。
其能力建立在上述两个提醒的基础之上:
具备推理能力,因此能判断下一步行动;
能够自我学习,从而在执行中不断优化。
许多人认为,智能体越强大,意味着某些岗位将被取代。
Hinton并未如此断言。他指出的是人类将减少对执行过程的参与。并非突然失去工作,而是你不再审核每个环节、不再决定每个动作,有些任务由智能体自行协商完成后告知你结果。这意味着主导权正在转移,你影响结果的机会减少了。
因此,智能体的能力边界需要精心设计。在Hinton看来,我们并非在开发一个听话的助理,而是在引入一个愿意且有能力完成任务的参与者。这引发了几个必须回答的问题:
答案可能因企业而异,但趋势是一致的:AI智能体不再仅仅辅助你,而是开始直接交付成果。
最终,你的工作不再是执行具体项目,而是转变为方案选择与决策拍板。
此次柏林对谈中,Hinton既未渲染炒作,也未谈论末日。
他给出了三项警示:
AI开始推理,不再一本正经地犯错。
它能自主学习,不再依赖人类灌输。
它能主动干事,无需等待指令。
从工具到协作者,你的角色从执行者转变为决策者。
📮 原文链接:
https://www.youtube.com/watch?v=M9ZNCkJJ0Sg&t=2s
https://www.businessinsider.com/ai-scaling-debate-geoffrey-hinton-ilya-sutskever-alexandr-wang-lecun-2025-12
本文由主机测评网于2026-03-11发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260330386.html