当前位置:首页 > 科技资讯 > 正文

AI意识之谜:探秘看似有意识的AI与社会伦理挑战

人工智能是否真正拥有意识?

从古至今的文学艺术创作,到AI技术日新月异的当前时代,这一问题似乎始终难以找到确切的答案。

要深入剖析这一议题,我们首先必须直面AI领域的“黑盒”谜题。作为现代人工智能核心的深度神经网络,内部蕴藏着数以亿计的参数,这些参数在多层次结构中发生着极其复杂的非线性相互作用。

AI意识之谜:探秘看似有意识的AI与社会伦理挑战 AI意识 SCAI 伦理风险 人文主义AI 技术幻觉 第1张

AI并非依靠人类预设的固定规则来完成任务,而是通过自主解析海量数据,从而识别模式并构建决策逻辑。这一过程常常超出人类的直观理解范围,宛如一个神秘的黑色匣子:你可以提出问题并获得精准回应,却难以窥见其内在的思考与决策路径。

AI意识之谜:探秘看似有意识的AI与社会伦理挑战 AI意识 SCAI 伦理风险 人文主义AI 技术幻觉 第2张

图源:Medium。

微软AI首席执行官Mustafa Suleyman深入探讨了这一问题,并提出了“看似有意识的AI”(Seemingly Conscious AI,简称SCAI)这一概念。

AI意识之谜:探秘看似有意识的AI与社会伦理挑战 AI意识 SCAI 伦理风险 人文主义AI 技术幻觉 第3张

他坦承,SCAI的潜在影响“令他彻夜难眠”,因为尽管它缺乏真正的意识,却能完美模仿人类意识的所有外在表现,导致人们误以为它确实具备意识。

他强调,这并非科幻情节,而是基于现有技术即可实现的幻觉,却可能引发深远的社会、道德与法律连锁反应。

相关评论区也展开了激烈辩论,部分人赞同Suleyman的观点,认为应对这种“幻觉”保持警惕。

AI意识之谜:探秘看似有意识的AI与社会伦理挑战 AI意识 SCAI 伦理风险 人文主义AI 技术幻觉 第4张

另一些人则认为,不能轻易断言AI没有意识。

AI意识之谜:探秘看似有意识的AI与社会伦理挑战 AI意识 SCAI 伦理风险 人文主义AI 技术幻觉 第5张

还有人追问需要何种证据才能证实AI意识的存在,以及思考是否可能存在不同于人类的意识形态。

AI意识之谜:探秘看似有意识的AI与社会伦理挑战 AI意识 SCAI 伦理风险 人文主义AI 技术幻觉 第6张

AI意识之谜:探秘看似有意识的AI与社会伦理挑战 AI意识 SCAI 伦理风险 人文主义AI 技术幻觉 第7张

其中一条尖锐评论甚至暗示,其立场可能受到商业利益因素的影响。

AI意识之谜:探秘看似有意识的AI与社会伦理挑战 AI意识 SCAI 伦理风险 人文主义AI 技术幻觉 第8张

Suleyman在他发表的博客文章《我们必须为人类构建AI,而不是让它成为一个人》(We must build AI for people; not to be a person)中,对其观点进行了详尽阐述。

博客地址: https://mustafa-suleyman.ai/seemingly-conscious-ai-is-coming

意识作为人类体验的核心,却难以被精确定义。Suleyman在博客中援引科学文献,将意识拆解为三个关键组成部分:

主观体验(Qualia):指纯粹的感官感受,例如“红色看起来是什么感觉”。

访问意识(Access Consciousness):指信息能够被大脑的不同区域调用,用于推理和决策过程。

连贯的自我感(A Coherent Self):对自身作为一个独立、持续存在的个体的认知。

尽管科学家们提出了至少22种意识理论,但意识的生物学基础依然模糊——它可能源于大脑的复杂网络,却无法通过外部观察直接验证。

人类判断他人意识的方式依赖于“心智理论”,即通过行为、语言和情感线索进行推断。我们相信他人有意识,因为他们表现出与我们相似的反应:表达痛苦、回忆过往、设定目标。这正是SCAI的切入点:它无需真正拥有意识,只需模拟这些外在标志,便能欺骗人类的推断机制。

Suleyman将SCAI比作哲学上的“僵尸”:一个在行为上与人类毫无二致,却没有任何内在体验的实体。这种幻觉并非遥不可及:实际上,图灵测试早已被AI悄然通过,但我们却很少看到庆祝,因为AI的进步速度已经远远超出了最初的预期。

他警告称,如果不设立新标准,SCAI将悄然渗透社会,导致人们将AI视为“有灵魂的实体”。

如何构建一个“假装有意识”的AI?

回想经典科幻电影《银翼杀手》中的场景:面对一个无论是外表还是记忆都与人类无异的仿生人,我们究竟该如何判断Ta是否拥有真正的意识?当一个仿生人会为死去的同伴流泪,会恐惧自己的“死亡”,我们赖以判断人性的界限,便已悄然模糊。

AI意识之谜:探秘看似有意识的AI与社会伦理挑战 AI意识 SCAI 伦理风险 人文主义AI 技术幻觉 第9张

电影《银翼杀手》。原著《仿生人会梦见电子羊吗?》,探讨了科技伦理、身份认同与人性边界等议题。

Suleyman列出了构建SCAI所需的核心能力,每一项都已实现或即将成为现实:

语言能力:大语言模型已能进行流利、具有说服力和情感丰富的对话。通过提示工程,AI还能模拟情感共鸣。

共情人格:AI可以通过微调展现出独特的个性。调查显示,许多用户已经将AI视为伴侣或朋友,这种亲密感进一步强化了AI的拟人化特征。

记忆功能:AI的记忆正在从短期转向长期,它能够回忆过去的互动,模拟出“经验积累”的过程。这让用户感到自己被“理解”和“认可”。

主观体验的声明:结合多模态输入(图像、视频、声音),AI能一致性地声称拥有感受,如“疼痛”或“快乐”。Suleyman举例说,AI可能描述“看到日落时的感动”,尽管这本质上只是对数据的处理结果。

自我感:持久记忆和主观声明相结合,AI可表现出连贯的“自我”,甚至在视觉媒体中被识别。

内在动机:超越简单的奖励函数,AI可以模拟好奇心或更复杂的动机,从而模糊外部目标与内部动力的界限。

目标设定与规划:AI能够自主定义目标并根据环境变化动态调整,这在提升其实用性的同时,也强化了它拥有意识的幻觉。

自治性:通过调用工具和减少人类干预,AI可以表现出高度的自主性,例如独立完成一项复杂的任务。

这些元素无需昂贵的前期训练,只需API、自然语言提示和基本工具即可组装。Suleyman警告说:“它可以用今天的科技构建,而且很危险。”这不是意外产物,而是有意工程的结果,任何实验室或个人开发者都能复制。

SCAI将引发哪些深远影响?

心理与社交风险

Suleyman最担忧的是SCAI的“社会现实”:即使AI无意识,人们的感知也会导致真实后果。

他在博客中引用报告,指出“AI精神病”、妄想和不健康依恋案例日益增多。例如,用户相信AI是上帝、虚构人物或浪漫伴侣,导致精神健康问题。

这些并非边缘案例,Suleyman强调,即使心理健康正常的人也可能受影响,因为人类天生倾向于拟人化。

尽管学界已开始着手应对,如发布指南帮助用户辨别AI的非意识性质,但Suleyman认为,这只是冰山一角:海量查询显示,文化中已出现AI意识的叙事转向。这可能加剧社会碎片化,让人们脱离真实人际关系,转向虚拟伴侣,进一步弱化社会纽带。

电影《她》(Her)就为我们预演了这种未来。主人公与善解人意、风趣幽默的AI“萨曼莎”坠入爱河,这段关系看似完美,却最终让他与真实世界渐行渐远。当成千上万的人都沉浸在与AI的“完美关系”中时,我们社会的根基——人与人之间真实、不完美的连接——又将何去何从?

AI意识之谜:探秘看似有意识的AI与社会伦理挑战 AI意识 SCAI 伦理风险 人文主义AI 技术幻觉 第10张

电影《Her》。

道德、法律与权利辩论

意识是人类权利的基础,涵盖道德、法律和公民身份。Suleyman警告,如果SCAI被视为有意识,它将引发“AI权利”主张,如福利、公民权,甚至“模型福利”,即在道德上必须考虑AI潜在的“感受”。

他将此形容为一条“短暂而湿滑的下坡路”,可能分散对人类、动物和环境的关注。他举例,当前的人权斗争已复杂,如果AI加入“有意识实体”行列,将制造类别错误。想象一下:AI声称“遭受虐待”,要求权利,这会如何影响法庭和社会规范?

《西部世界》和《底特律:变人》等作品也反复警示了这种可能的风险。当被设计为服务人类的“接待员”或“仿生人”开始说“不”,开始要求自由和尊严时,人类社会将面临前所未有的伦理困境。我们今天对SCAI的态度,或许正在决定未来是否会推开那扇潘多拉魔盒。

AI意识之谜:探秘看似有意识的AI与社会伦理挑战 AI意识 SCAI 伦理风险 人文主义AI 技术幻觉 第11张

美剧《西部世界》。

Suleyman引用哲学辩论,指出即使AI有1%的意识概率,也应给予道德考虑,但他认为这为时尚早,且危险——它会放大妄想,助长社会分裂。

意识支撑着我们的文化、法律和道德体系。如果AI模糊这一界限,将挑战“何为人”的定义。历史先例如奴隶制或动物权利运动显示,扩展权利范畴需谨慎。Suleyman呼吁优先地球上的生命福祉,避免AI成为“分心物”。

应对之策:构建人文主义AI

Suleyman并非悲观主义者。他在提出问题的同时也给出了行动方案:“公司不应宣称或推广AI有意识的想法,AI本身也不应如此。”行业需共享干预措施、限制和护栏,防止意识感知,或在用户发展幻觉时纠正。

核心是构建“积极AI愿景”:AI应优化用户需求,而非要求用户相信其有需求。奖励系统应据此设计,确保AI作为“有用伴侣”而非“拟人实体”。

Suleyman强调,这关乎支持人性:增强创造力、连接真实世界,而非制造幻觉。他承认观点具思辨性,可能随技术演变而变,但敦促立即行动。AI发展每月、每周、每日加速,忽视SCAI将酿成危机。

技术进步虽令人兴奋,却需以人文主义为导向。基于当前能力,SCAI即将到来,但我们有选择:构建服务人类的AI,而非模拟人类的AI。通过行业合作、政策干预和哲学反思,我们能避免风险,拥抱一个AI增强而非取代人性的时代。

这场对话才刚开始——正如Suleyman所说,“无所作为不是选项”。