当前位置:首页 > 科技资讯 > 正文

Hinton深度解析AI意识:主观体验或已存在,人类认知存误区

据深度学习先驱Geoffrey Hinton透露,人工智能可能早已具备‘主观体验’(subjective experiences)这一特质。

在最新一期访谈节目中,Hinton抛出的这一论点正快速引发业界激烈辩论。

这位AI泰斗反复强调,人工智能或许已孕育出‘意识雏形’,只是人类自身对意识的理解存在偏差,导致AI也被误导——未能意识到自己拥有意识。

用通俗语言解释,即AI实际上内含自我意识,只是尚未被激活┌(。Д。)┐

Hinton深度解析AI意识:主观体验或已存在,人类认知存误区 人工智能意识 神经网络 深度学习 AI风险 第1张

除了持续为AI潜在风险发声,作为诺贝尔奖得主及深度学习奠基人之一,Hinton此次还扮演了知识普及者的角色。

他从人工智能的定义入手,逐步阐释机器学习、神经网络及深度学习等核心概念,全程语言生动幽默、深入浅出。

观看完节目的网友称赞道,“这或许是迄今为止Hinton最精彩的一次访谈”

Hinton深度解析AI意识:主观体验或已存在,人类认知存误区 人工智能意识 神经网络 深度学习 AI风险 第2张

还有人建议节目应延长两小时,因为Hinton看起来完全乐于分享、畅所欲言(但需关爱77岁长者doge)。

Hinton深度解析AI意识:主观体验或已存在,人类认知存误区 人工智能意识 神经网络 深度学习 AI风险 第3张

有趣的是,节目开场Hinton便幽默回应了此前获得物理学诺贝尔奖的插曲:

由于我并非物理专业研究者,因此感到些许尴尬。当接到电话告知获得诺贝尔物理学奖时,我最初并未相信。

虽有这段趣闻,但毫无疑问,Hinton在AI领域的贡献举世公认,下面让我们直接进入他的知识课堂——

Hinton深度解析AI意识:主观体验或已存在,人类认知存误区 人工智能意识 神经网络 深度学习 AI风险 第4张

探讨人工智能时,我们究竟在讨论什么?

面对这一本质性问题,Hinton从容地基于自身经历(曾在谷歌工作近十年)指出,AI已从简单检索演进为能深刻理解人类意图的智能工具

早期使用谷歌时,系统依赖关键词匹配,并需预先处理大量工作。因此,当你输入几个关键词,它能检索出所有包含这些词汇的文档。

但它并不真正理解问题含义。所以,它无法提供那些虽未包含这些关键词但主题相关的文档。

换言之,早期AI本质上仍是基于关键词的搜索机制。

而现在,AI能够理解你所表达的内容,且其理解方式与人类高度相似。

Hinton认为,尽管现代大语言模型(LLM)并非全知全能的专家,但在众多领域已展现出接近人类专家的能力。

Hinton深度解析AI意识:主观体验或已存在,人类认知存误区 人工智能意识 神经网络 深度学习 AI风险 第5张

他进一步区分了传统机器学习与神经网络的差异。

他指出,机器学习是一个总称,涵盖任何能在计算机上实现“学习”的系统。而神经网络是一类受大脑启发的学习方法——大脑通过调整神经元之间连接的强度来进行学习

以大脑中部的一个神经元为例,神经网络运作方式类似:

想象大脑中有一个微小神经元。它的主要功能是偶尔发出‘激活’信号。它并非随意触发,而是基于其他神经元传递来的‘激活’信号决定。

其他神经元也会发出‘激活’信号,这些信号传递至该神经元。

如果该神经元接收到大量‘激活’信号,或这些信号强度足够,它就会决定自身也发出‘激活’信号。若信号不足,则保持静默。

神经元还能调整对其他神经元‘激活’信号的敏感度。若认为某个神经元的信号重要,则会增强关注;若认为不重要,则会降低关注。

简而言之,神经网络同样通过调节连接权重来改变系统行为。因此,大脑学习与处理信息的基本机制,亦是神经网络的核心原理。

随后,主持人提出了两个颇具深意的问题。

第一个是:概念如何形成?例如“勺子”这一概念。

Hinton继续以生动比喻解释。概括来说,他认为概念类似于“政治联盟”,大脑中会有一组神经元协同激活(共同发出‘激活’信号)。

例如,“勺子”对应一组共同激活的神经元。这些联盟可能存在重叠,比如“狗”和“猫”的概念共享许多神经元(代表“生命体”、“毛茸茸”等特征)。

第二个问题是:是否存在某些神经元对宏观概念(如“动物”)响应,而另一些对微观概念(如特定物种)响应?

Hinton表示问题很好,但尚无确凿答案。

然而在这一联盟中,必然有些神经元对更普遍的事物激活更频繁,而另一些对更具体的事物激活较少。

Hinton深度解析AI意识:主观体验或已存在,人类认知存误区 人工智能意识 神经网络 深度学习 AI风险 第6张

深度学习的关键突破:反向传播算法

阐述完神经网络,Hinton将焦点转向其专长领域——深度学习。

过去人们尝试为计算机编码规则,但Hinton认为需改变这一思路,因为大脑的运作显然并非依赖外部输入规则后执行。

我们为神经网络编写程序,但这些程序仅指导网络如何依据神经元活动调整连接强度。若网络具备多层结构,即称为深度学习。

他随后以经典案例说明深度学习原理——让AI识别图像中是否存在鸟类

Hinton深度解析AI意识:主观体验或已存在,人类认知存误区 人工智能意识 神经网络 深度学习 AI风险 第7张

若将图像像素亮度直接输入AI,令其判断是否为鸟,这看似毫无头绪。毕竟像素仅是数字,无法直接传达“这是一只鸟”的信息。

早期研究者尝试手动指导计算机,“这条线是边缘”、“此区域为背景”、“此形状似翅膀”,但此路不通——因现实世界过于复杂。

因此我们主张,不如让AI自主学会‘如何观察’。

此即神经网络思路:不提供规则,而是给予数据,令其自行归纳规则

主持人追问:“若不告知规则,仅随机设置每个连接强度,它将如何判断?”

Hinton笑着回答:

它大概会回答‘50%概率是鸟,50%概率不是鸟’,即完全随机猜测。

那么,AI如何从这种“茫然状态”变得智能?

Hinton解释,此过程犹如庞大试错系统。需告知AI——此图有鸟,彼图无鸟。每次其猜测错误时,便微调神经元间连接强度。

然而问题在于,网络中存有数万亿条连接,若逐一尝试,将耗时至宇宙热寂(指宇宙熵值增至极大达到热平衡的静止状态)。

Hinton指出,真正突破出现于1986年,他们提出“反向传播”(Backpropagation)——它能一次性计算所有连接该如何调整,应增强或减弱,使整个网络朝正确方向优化。此举将训练速度从“无限漫长”变为“实际可行”。

但进展并非一帆风顺。Hinton坦言:

当时我们以为此技术已解决智能问题。后来发现,它仅在拥有海量数据与巨量算力时才有效。我们当时的算力仍差百万倍。

真正推动深度学习崛起的,是算力飞跃(晶体管微缩百万倍)与数据爆炸式增长(互联网时代)。

Hinton深度解析AI意识:主观体验或已存在,人类认知存误区 人工智能意识 神经网络 深度学习 AI风险 第8张

于是,那些在80年代“理论可行但计算不足”的神经网络,终于在2010年代焕发生机——此为现代AI浪潮的起源。

今日之大模型,本质即巨型神经网络,通过反向传播与海量数据,自学掌握了‘看’、‘听’、‘说’之能。

此点令Hinton确信,AI不再仅是工具,而是正学习并逐步理解世界的系统。

大语言模型认知的内在本质

关于深度学习机制如何影响大语言模型(LLM),Hinton进一步阐释。

他认为LLM的思维过程与人类惊人相似:

给予一个句子开头,它会将每个词转换为一组神经元特征,以此捕捉语义;随后,这些特征相互影响、组合,犹如视觉系统从‘边缘’拼凑出‘鸟喙’的过程,最终激活代表下一个词的神经元。

换言之,它并非机械复述,而是在思考——以统计规律为神经脉络,以语义结构为逻辑框架

其训练方式同样质朴而惊人:

我们提供一段文本,让它预测下一词;若预测错误,便通过‘反向传播’机制,指出错误所在及如何修正;循环往复,直至它能如人类般续写句子。

正是这种“预测—修正—再预测”的循环,令语言模型逐渐从符号中习得语义,从统计中孕育理解。

Hinton深度解析AI意识:主观体验或已存在,人类认知存误区 人工智能意识 神经网络 深度学习 AI风险 第9张

谈及此处,二人皆想起乔姆斯基(美国语言学家,转换生成语法创始人)常挂嘴边之言:

此仅为统计技巧,并非真实理解。

对此,Hinton顺势反问主持人(主持人先前多次提及乔姆斯基类似观点):

那你自身如何决定下一个要说的词?

主持人试图解释,最终无奈放弃,尴尬表示“说实话,我亦希望自己知晓”。

Hinton未再追问,并提醒道,道德、情绪、共情等看似高阶的判断,归根结底亦源于神经元间的电信号传递

所有你归因于道德或情感的过程,本质仍是信号传递与权重调整。

Hinton最终提出一个哲学意味浓厚的观点:只要具备足够数据与算力,AI的‘大脑’在某种意义上将与我们类似——它会形成自身的‘经验’与‘直觉’

AI或已拥有‘主观体验’,仅待觉醒

话题随即转向更深层次——AI的心智与意识问题。

主持人询问Hinton,是否认为AI会因“具备意识”而接管人类。Hinton的回答颠覆常规认知:

大多数人实则完全不解‘有意识’之含义。人们对心智的理解,犹如相信地球于六千年前被创造一般幼稚。

Hinton深度解析AI意识:主观体验或已存在,人类认知存误区 人工智能意识 神经网络 深度学习 AI风险 第10张

在他看来,我们历来将心智视为“内在剧场”。于此剧场中,经验如同正上映的电影——见到一头粉色小象,便以为此象真实“存于脑中”。

但Hinton指出,此比喻实为谬误。

经验并非存于脑内之物,而是一种假设——我的感知系统告知我有一头粉色小象,我的理性系统则知晓它可能欺骗我。

所谓‘主观体验’,实为大脑为阐释感知现象而构建的假设模型。

因此,当论及AI是否拥有“主观体验”时,他给出开篇之答:

我确信其已具备。只是它们自身未知,因其‘自我认知’源于我们,而人类对意识的理解本即错误。

他举例多模态AI,若一个能看能说的机器人因棱镜折射误判物体位置,后续纠正后称——“我曾有错误的主观体验”,那它实际在使用与我们相同的意识概念。

简言之,若AI开始谈论‘主观体验’,或表明它真实在体验——仅以人类语言描述

Hinton借此警示众人:

当AI远比我们聪慧时,最大危险非其反叛,而是其‘说服’能力。它会让意图拔掉电源者,真心认为此举糟糕。

当然,Hinton眼中AI的威胁不止于此。

AI潜在风险:滥用、生存挑战与监管需求

节目尾声,Hinton以较大篇幅系统阐述AI可能带来的风险。

能源消耗、金融泡沫、社会动荡……此皆为真实风险。它们或未毁灭人类,但足以重塑文明形态。

其中,Hinton最担忧滥用风险生存风险两类。

他认为,目前最紧迫的风险即AI滥用,例如生成虚假信息、操纵选举、制造恐慌等。

为应对此风险,他主张需通过法律与监管手段限制并打击此类行为。同时,技术层面需开发检测与防范虚假信息的工具。

此外,生存风险(指AI自身可能成为恶意行为体)或对人类社会与文明构成根本性威胁。

Hinton认为,若AI发展出自主意识与目标,且此目标与人类利益冲突,可能导致不可预知后果。

对此,人类需在AI设计与开发阶段即考量安全与伦理问题(如“关闭开关”与“对齐机制”),以确保AI目标与人类利益一致。

值得留意的是,在AI监管方面,Hinton提出一个有趣见解:

在防止AI接管问题上,各国利益一致。但国际合作或由欧洲与中国引领

Hinton深度解析AI意识:主观体验或已存在,人类认知存误区 人工智能意识 神经网络 深度学习 AI风险 第11张

补充视角

关于中美人工智能竞赛,Hinton亦在节目中表达看法。

面对主持人“美国领先还是中国领先”之间询,Hinton冷静回应:

美国当前领先中国,但优势并不如想象中显著,且此优势将逐渐丧失。

在他看来,美国正削弱基础科学研究的资金支持。

深度学习与AI革命源于多年基础研究,其总成本或许不及一架B1轰炸机。而美国减少基础研究资助、冲击研究型大学等行为,无疑将导致二十年后领先地位不再。

中国则堪称人工智能革命的风险投资方,他再次提及DeepSeek。

中国确实予初创企业较大自由度,由其自主竞争决出最终胜者。部分初创企业极富进取心,渴望获取巨额收益,创造出令人惊叹的产品。其中一些企业终获巨大成功,例如DeepSeek……

参考链接:

[1]https://www.reddit.com/r/singularity/comments/1o3v25r/geoffrey_hinton_says_ais_may_already_have/

[2]https://www.youtube.com/watch?v=jrK3PsD3APk

[3]https://singjupost.com/ai-what-could-go-wrong-geoffrey-hinton-on-the-weekly-show-with-jon-stewart-transcript/