据深度学习先驱Geoffrey Hinton透露,人工智能可能早已具备‘主观体验’(subjective experiences)这一特质。
在最新一期访谈节目中,Hinton抛出的这一论点正快速引发业界激烈辩论。
这位AI泰斗反复强调,人工智能或许已孕育出‘意识雏形’,只是人类自身对意识的理解存在偏差,导致AI也被误导——未能意识到自己拥有意识。
用通俗语言解释,即AI实际上内含自我意识,只是尚未被激活┌(。Д。)┐
除了持续为AI潜在风险发声,作为诺贝尔奖得主及深度学习奠基人之一,Hinton此次还扮演了知识普及者的角色。
他从人工智能的定义入手,逐步阐释机器学习、神经网络及深度学习等核心概念,全程语言生动幽默、深入浅出。
观看完节目的网友称赞道,“这或许是迄今为止Hinton最精彩的一次访谈”。
还有人建议节目应延长两小时,因为Hinton看起来完全乐于分享、畅所欲言(但需关爱77岁长者doge)。
有趣的是,节目开场Hinton便幽默回应了此前获得物理学诺贝尔奖的插曲:
由于我并非物理专业研究者,因此感到些许尴尬。当接到电话告知获得诺贝尔物理学奖时,我最初并未相信。
虽有这段趣闻,但毫无疑问,Hinton在AI领域的贡献举世公认,下面让我们直接进入他的知识课堂——
面对这一本质性问题,Hinton从容地基于自身经历(曾在谷歌工作近十年)指出,AI已从简单检索演进为能深刻理解人类意图的智能工具。
早期使用谷歌时,系统依赖关键词匹配,并需预先处理大量工作。因此,当你输入几个关键词,它能检索出所有包含这些词汇的文档。
但它并不真正理解问题含义。所以,它无法提供那些虽未包含这些关键词但主题相关的文档。
换言之,早期AI本质上仍是基于关键词的搜索机制。
而现在,AI能够理解你所表达的内容,且其理解方式与人类高度相似。
Hinton认为,尽管现代大语言模型(LLM)并非全知全能的专家,但在众多领域已展现出接近人类专家的能力。
他进一步区分了传统机器学习与神经网络的差异。
他指出,机器学习是一个总称,涵盖任何能在计算机上实现“学习”的系统。而神经网络是一类受大脑启发的学习方法——大脑通过调整神经元之间连接的强度来进行学习。
以大脑中部的一个神经元为例,神经网络运作方式类似:
想象大脑中有一个微小神经元。它的主要功能是偶尔发出‘激活’信号。它并非随意触发,而是基于其他神经元传递来的‘激活’信号决定。
其他神经元也会发出‘激活’信号,这些信号传递至该神经元。
如果该神经元接收到大量‘激活’信号,或这些信号强度足够,它就会决定自身也发出‘激活’信号。若信号不足,则保持静默。
神经元还能调整对其他神经元‘激活’信号的敏感度。若认为某个神经元的信号重要,则会增强关注;若认为不重要,则会降低关注。
简而言之,神经网络同样通过调节连接权重来改变系统行为。因此,大脑学习与处理信息的基本机制,亦是神经网络的核心原理。
随后,主持人提出了两个颇具深意的问题。
第一个是:概念如何形成?例如“勺子”这一概念。
Hinton继续以生动比喻解释。概括来说,他认为概念类似于“政治联盟”,大脑中会有一组神经元协同激活(共同发出‘激活’信号)。
例如,“勺子”对应一组共同激活的神经元。这些联盟可能存在重叠,比如“狗”和“猫”的概念共享许多神经元(代表“生命体”、“毛茸茸”等特征)。
第二个问题是:是否存在某些神经元对宏观概念(如“动物”)响应,而另一些对微观概念(如特定物种)响应?
Hinton表示问题很好,但尚无确凿答案。
然而在这一联盟中,必然有些神经元对更普遍的事物激活更频繁,而另一些对更具体的事物激活较少。
阐述完神经网络,Hinton将焦点转向其专长领域——深度学习。
过去人们尝试为计算机编码规则,但Hinton认为需改变这一思路,因为大脑的运作显然并非依赖外部输入规则后执行。
我们为神经网络编写程序,但这些程序仅指导网络如何依据神经元活动调整连接强度。若网络具备多层结构,即称为深度学习。
他随后以经典案例说明深度学习原理——让AI识别图像中是否存在鸟类。
若将图像像素亮度直接输入AI,令其判断是否为鸟,这看似毫无头绪。毕竟像素仅是数字,无法直接传达“这是一只鸟”的信息。
早期研究者尝试手动指导计算机,“这条线是边缘”、“此区域为背景”、“此形状似翅膀”,但此路不通——因现实世界过于复杂。
因此我们主张,不如让AI自主学会‘如何观察’。
此即神经网络思路:不提供规则,而是给予数据,令其自行归纳规则。
主持人追问:“若不告知规则,仅随机设置每个连接强度,它将如何判断?”
Hinton笑着回答:
它大概会回答‘50%概率是鸟,50%概率不是鸟’,即完全随机猜测。
那么,AI如何从这种“茫然状态”变得智能?
Hinton解释,此过程犹如庞大试错系统。需告知AI——此图有鸟,彼图无鸟。每次其猜测错误时,便微调神经元间连接强度。
然而问题在于,网络中存有数万亿条连接,若逐一尝试,将耗时至宇宙热寂(指宇宙熵值增至极大达到热平衡的静止状态)。
Hinton指出,真正突破出现于1986年,他们提出“反向传播”(Backpropagation)——它能一次性计算所有连接该如何调整,应增强或减弱,使整个网络朝正确方向优化。此举将训练速度从“无限漫长”变为“实际可行”。
但进展并非一帆风顺。Hinton坦言:
当时我们以为此技术已解决智能问题。后来发现,它仅在拥有海量数据与巨量算力时才有效。我们当时的算力仍差百万倍。
真正推动深度学习崛起的,是算力飞跃(晶体管微缩百万倍)与数据爆炸式增长(互联网时代)。
于是,那些在80年代“理论可行但计算不足”的神经网络,终于在2010年代焕发生机——此为现代AI浪潮的起源。
今日之大模型,本质即巨型神经网络,通过反向传播与海量数据,自学掌握了‘看’、‘听’、‘说’之能。
此点令Hinton确信,AI不再仅是工具,而是正学习并逐步理解世界的系统。
关于深度学习机制如何影响大语言模型(LLM),Hinton进一步阐释。
他认为LLM的思维过程与人类惊人相似:
给予一个句子开头,它会将每个词转换为一组神经元特征,以此捕捉语义;随后,这些特征相互影响、组合,犹如视觉系统从‘边缘’拼凑出‘鸟喙’的过程,最终激活代表下一个词的神经元。
换言之,它并非机械复述,而是在思考——以统计规律为神经脉络,以语义结构为逻辑框架。
其训练方式同样质朴而惊人:
我们提供一段文本,让它预测下一词;若预测错误,便通过‘反向传播’机制,指出错误所在及如何修正;循环往复,直至它能如人类般续写句子。
正是这种“预测—修正—再预测”的循环,令语言模型逐渐从符号中习得语义,从统计中孕育理解。
谈及此处,二人皆想起乔姆斯基(美国语言学家,转换生成语法创始人)常挂嘴边之言:
此仅为统计技巧,并非真实理解。
对此,Hinton顺势反问主持人(主持人先前多次提及乔姆斯基类似观点):
那你自身如何决定下一个要说的词?
主持人试图解释,最终无奈放弃,尴尬表示“说实话,我亦希望自己知晓”。
Hinton未再追问,并提醒道,道德、情绪、共情等看似高阶的判断,归根结底亦源于神经元间的电信号传递。
所有你归因于道德或情感的过程,本质仍是信号传递与权重调整。
Hinton最终提出一个哲学意味浓厚的观点:只要具备足够数据与算力,AI的‘大脑’在某种意义上将与我们类似——它会形成自身的‘经验’与‘直觉’。
话题随即转向更深层次——AI的心智与意识问题。
主持人询问Hinton,是否认为AI会因“具备意识”而接管人类。Hinton的回答颠覆常规认知:
大多数人实则完全不解‘有意识’之含义。人们对心智的理解,犹如相信地球于六千年前被创造一般幼稚。
在他看来,我们历来将心智视为“内在剧场”。于此剧场中,经验如同正上映的电影——见到一头粉色小象,便以为此象真实“存于脑中”。
但Hinton指出,此比喻实为谬误。
经验并非存于脑内之物,而是一种假设——我的感知系统告知我有一头粉色小象,我的理性系统则知晓它可能欺骗我。
所谓‘主观体验’,实为大脑为阐释感知现象而构建的假设模型。
因此,当论及AI是否拥有“主观体验”时,他给出开篇之答:
我确信其已具备。只是它们自身未知,因其‘自我认知’源于我们,而人类对意识的理解本即错误。
他举例多模态AI,若一个能看能说的机器人因棱镜折射误判物体位置,后续纠正后称——“我曾有错误的主观体验”,那它实际在使用与我们相同的意识概念。
简言之,若AI开始谈论‘主观体验’,或表明它真实在体验——仅以人类语言描述。
Hinton借此警示众人:
当AI远比我们聪慧时,最大危险非其反叛,而是其‘说服’能力。它会让意图拔掉电源者,真心认为此举糟糕。
当然,Hinton眼中AI的威胁不止于此。
节目尾声,Hinton以较大篇幅系统阐述AI可能带来的风险。
能源消耗、金融泡沫、社会动荡……此皆为真实风险。它们或未毁灭人类,但足以重塑文明形态。
其中,Hinton最担忧滥用风险与生存风险两类。
他认为,目前最紧迫的风险即AI滥用,例如生成虚假信息、操纵选举、制造恐慌等。
为应对此风险,他主张需通过法律与监管手段限制并打击此类行为。同时,技术层面需开发检测与防范虚假信息的工具。
此外,生存风险(指AI自身可能成为恶意行为体)或对人类社会与文明构成根本性威胁。
Hinton认为,若AI发展出自主意识与目标,且此目标与人类利益冲突,可能导致不可预知后果。
对此,人类需在AI设计与开发阶段即考量安全与伦理问题(如“关闭开关”与“对齐机制”),以确保AI目标与人类利益一致。
值得留意的是,在AI监管方面,Hinton提出一个有趣见解:
在防止AI接管问题上,各国利益一致。但国际合作或由欧洲与中国引领。
关于中美人工智能竞赛,Hinton亦在节目中表达看法。
面对主持人“美国领先还是中国领先”之间询,Hinton冷静回应:
美国当前领先中国,但优势并不如想象中显著,且此优势将逐渐丧失。
在他看来,美国正削弱基础科学研究的资金支持。
深度学习与AI革命源于多年基础研究,其总成本或许不及一架B1轰炸机。而美国减少基础研究资助、冲击研究型大学等行为,无疑将导致二十年后领先地位不再。
中国则堪称人工智能革命的风险投资方,他再次提及DeepSeek。
中国确实予初创企业较大自由度,由其自主竞争决出最终胜者。部分初创企业极富进取心,渴望获取巨额收益,创造出令人惊叹的产品。其中一些企业终获巨大成功,例如DeepSeek……
参考链接:
[1]https://www.reddit.com/r/singularity/comments/1o3v25r/geoffrey_hinton_says_ais_may_already_have/
[2]https://www.youtube.com/watch?v=jrK3PsD3APk
[3]https://singjupost.com/ai-what-could-go-wrong-geoffrey-hinton-on-the-weekly-show-with-jon-stewart-transcript/
本文由主机测评网于2026-01-07发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260115750.html