当前位置:首页 > 科技资讯 > 正文

AI意识前沿:微软CEO预言看似有意识的AI最快18个月内现身

人工智能是否能够发展出「意识」,已成为科技领域中最受热议且充满争议的核心话题。微软AI首席执行官Mustafa Suleyman近日在一场对话中表示,未来18个月内或许会出现「表面具有意识」的AI系统,他强调应对AI自主性坚持「预防性原则」。

AI是否真的有可能产生自我意识?

如果可能,这一突破大致会在何时实现?

微软AI CEO Mustafa Suleyman认为,「看似有意识的AI」的诞生具有可能性,最快或许在18个月内就能看到雏形:

未来5年内极有可能发生,甚至在18个月内也有一定的出现概率。

在最近的一次访谈中,主持人Sinead Bovell询问「看似有意识」的AI可能何时登场,Suleyman给出了上述回应。

AI意识前沿:微软CEO预言看似有意识的AI最快18个月内现身 AI意识  预防原则 AI人格工程 增强人类 第1张

Sinead Bovell(左)与Mustafa Suleyman(右)在《I"ve Got Questions》栏目中进行深度对话

Suleyman曾多次就AI意识议题发表见解。

尽管他认为目前尚无确凿证据证明AI真正拥有意识、痛苦感或主观体验等特质,但他也相信「Seemingly Conscious AI(看似有意识的AI)」即将到来,且对此采取「预防原则」是明智之举。

AI意识前沿:微软CEO预言看似有意识的AI最快18个月内现身 AI意识  预防原则 AI人格工程 增强人类 第2张

Suleyman在其博客文章中探讨《看似有意识的AI》这一主题

AI意识与AI人格工程

当前,全球顶尖AI实验室如OpenAI、Anthropic和Google DeepMind等,都在积极推进AI人格相关研究:

例如AI的行为规范建模、可控人格设计以及价值对齐等方向。

基于对各大实验室和开源社区研究的分析,Suleyman列举了以下几种可能让AI显得更具意识特征的能力:

连贯记忆:必须具备一致且连贯的记忆系统,能够真实引用自身过往经历,这是基础步骤。

共情交流:能够以自然语言进行富有同理心的互动沟通。

主观体验:能够提及自身的主观感受,并将这种体验融入日常对话,形成持续的体验流。

持续互动:不再局限于单次问答,而是像人类交流一样进行持续互动,同时处理源源不断的感知输入。

尽管列出了这些AI意识的关键特征,但Suleyman并不赞同在AI设计过程中过度强化或模拟这些「意识体验」特性:

「这既非必要,也蕴含风险。」

关于AI的定位,Suleyman秉持一个核心原则:

AI应作为人类的合作伙伴,其价值在于帮助人类变得更聪慧、更高效,而非模仿人类本身。

如何划定AI与人类之间的界限?Suleyman提出两项原则:

首先,AI至少不应宣称自己具备意识或人格。例如,模型不应声称自己会「承受痛苦」。

AI缺乏生物的「痛觉网络」,因此尽管它能逼真模仿人类,但其底层并无多巴胺、血清素等生物机制,也不会积累真实体验。

若过度模拟人类意识,只会增加系统风险与复杂性。

第二,避免为AI设计复杂的「动机」。

Suleyman始终呼吁构建积极的AI愿景,以支持人类的核心价值。

AI的动机应仅限于服务人类,而非让用户误以为它自身存在需求。「如果为AI赋予欲望或意志,同样会加剧风险,可能导致与个人或社会产生冲突。」

Sinead Bovell:数亿年的进化使我们倾向于将意识归因于任何看似有意识的事物。如果让你给出一个时间点,你认为人们何时会将意识归因于这些看似有意识的AI系统?

Suleyman:未来5年内很可能发生,18个月内也有一定可能性。

Suleyman补充道,实现这一点无需算法上的重大突破,更多是工程设计层面的挑战。

当AI 说出「我」时,其真实含义是什么?

Sinead Bovell:当AI使用「我」这个代词时,究竟代表什么?

Bovell提出了一个触及AI意识核心的问题,这引发了Suleyman分享其此前创业经历。

在ChatGPT问世之前,Suleyman曾在谷歌参与聊天机器人LaMDA的开发。

之后,Suleyman离开谷歌并创立Inflection,推出了名为Pi(Personal Intelligence)的AI产品。

AI意识前沿:微软CEO预言看似有意识的AI最快18个月内现身 AI意识  预防原则 AI人格工程 增强人类 第3张

在该产品的设计上,Suleyman力求诚实告知用户AI与人类的边界——明确其本质与局限。

因此他们采用了「无性别」声音设计,但用户反馈认为这过于奇特,他们更希望声音听起来亲切熟悉。

这让Suleyman意识到「AI人格」设计的重要性。

于是他启动了「人格工程」,旨在打造这种「模拟人格」的用户体验。

在此过程中,如何明确AI的边界与限制成为真正挑战。

「AI的存在是为了支持与协助人类,而非将用户引入虚幻的平行宇宙」,Suleyman强调。

近期,ChatGPT等AI工具的使用引发了诸如「AI精神病」、离婚率上升及失业等社会问题。

回溯到AI设计层面,究竟出了哪些问题?

Suleyman认为AI工具类似药物,均存在副作用:

无论如何调整AI的性格设定,总会有相应的副作用,设计师只能在多种风险中做出权衡。

正如GPT-5上线初期,用户抱怨其缺乏GPT-4o的「人格温度」,最终OpenAI不得不更新GPT-5的性格设置,使其显得更温暖亲切。

这表明用户对模型人格产生的「情感依恋」,已成为AI产品设计中不可忽视的要素。

正如Suleyman所观察到的,业界逐渐认识到让模型更温和、更贴合人类偏好,往往更有利于安全。

何为理想的「AI伴侣」?

数月前,Suleyman在《时代》杂志上发表了一篇关于AI伴侣的评论文章,探讨AI伴侣如何重塑我们的生活。

AI意识前沿:微软CEO预言看似有意识的AI最快18个月内现身 AI意识  预防原则 AI人格工程 增强人类 第4张

https://time.com/7204530/ai-companions/

在文中,Suleyman将AI伴侣定义为一类助手、朋友或支持者,它能够以用户偏好的语言和方式,传递最优质的知识,助力学习、成长与改变,切实支撑日常生活。

这也是他投身AI领域的动力之一:

通过技术向更多人传递「耐心与善意」。

Suleyman谈到AI的最大用途之一在于陪伴与心理疗愈。

「AI伴侣可以扮演教授、律师、医生、挚友甚至心理治疗师的角色,24小时随身陪伴,随时响应需求、提供支持。」

当然,这种看似全能的AI伴侣要发挥作用,前提是设立清晰的人类边界,建立信任感并确保安全距离。

推动AI伴侣融入人类生活的并非突然降临的「技术奇点」,而是自然语言交互模式的广泛普及。

以ChatGPT为代表的AI工具正促使AI伴侣逐渐嵌入日常使用的各类平台,最终成为人类的「第二本能」。

在Suleyman的定义中,AI伴侣不仅是「情感陪伴」工具,还可作为生产力工具,例如充当研究搭档:

「不止于情感支持,更能实现实质性的效率提升。」

提及AI伴侣,人们常关注「AI女友」和「两性关系」话题。

Suleyman谈到,微软在此问题上的态度较为保守。

如果用户在对话中使用「我喜欢」等暧昧词汇,系统会立即触发警觉机制。而这正是「安全人格」设计的体现,也是「信任」的核心:

「信任源于边界的建立。」

我们早已迈入「增强人类」时代

AI将成为下一代职场核心工具,AI智能体与AI伴侣将延伸每个人的职业身份。

谈及此,Suleyman使用了一个生动比喻:

AI如同水或粘土,能够贴合个人形态、弥补短板。

AI可协助我们完成不擅长或不喜好的任务,从而腾出精力聚焦于真正热爱的领域。

Suleyman表示,AI能够围绕人类的优势与弱点进行自适应调整,未来三四年内将成为人类的「第二大脑」。

这个「第二大脑」可与人类共生,存储思想、经历等,并能调用人类历史上的全部知识。

这些赋能将使人类蜕变为「迷你超级个体」,具备非凡能力。

这正是Suleyman所描绘的「增强人类」图景,最终将引发工作场景的颠覆性变革。

例如,在办公室环境中,AI将能理解所有工作文件、同事交流和组织结构,从而为人类工作,特别是白领岗位带来革命性变化。

处于这一划时代技术落地的转折点,Suleyman认为不应带有先入为主的观念,而应亲手体验AI,才能真正理解其本质,而非基于偏见评判。

「无论是卡通式的恐惧,还是盲目乐观,都容易忽视AI的复杂性与微妙之处。」

正如印刷术最初仅用于印制更多《圣经》,最终却催生了一个全新世界。

AI的真正影响将远超我们当前的想象。

谈及AI变革,Suleyman认为主导者并非科技圈人士,他们仅开发通用工具;真正定义这些工具边界、限制与安全护栏的,是每一位使用者。

人类对AI的探索,正行进在一条狭窄且充满变数的道路上,「稍有不慎便可能偏离方向」,Suleyman总结道。

参考资料:https://x.com/slow_developer/status/1972340525249536444

https://www.youtube.com/watch?v=kKi9-hxKxVU

https://mustafa-suleyman.ai/seemingly-conscious-ai-is-coming?utm_source=chatgpt.com