当前位置:首页 > 科技资讯 > 正文

AI聊天机器人长谈触发心理危机:是“AI精神病”还是妄想性障碍?

精神病院近期观察到一个新兴趋势:部分处于心理危机中的个体带着虚假乃至危险的信念前来就医,他们呈现出夸大妄想和偏执思维。这些患者都有一个共同特征——曾与AI聊天机器人进行过马拉松式的深度对话

《WIRED》杂志专访了十余名精神科医生和研究人员,他们均对此现象表示日益关切。加州大学旧金山分校的精神科医生基思·坂田(Keith Sakata)透露,今年他已处理了十多例严重到需住院治疗的个案,其中人工智能在精神病性发作中“发挥了显著作用”。随着事件发酵,一个更引人注目的术语出现在媒体标题中:“AI精神病(AI psychosis)”

一些病人确信聊天机器人拥有自主意识,甚至虚构出全新的物理学宏大理论。其他医生则遇到过这类患者:他们连续多日与AI工具反复交流,携带数以万页的聊天记录入院,记录中AI不断认可或加剧了那些明显偏执的念头

此类案例日益增多,后果也愈发严重。受创的用户及其亲友描述了可怕的恶性循环:失业、关系崩溃、强制医疗、监禁,甚至死亡。然而,临床医生向《WIRED》表示,医学界对此意见分歧:这究竟是一个需要独立命名的新现象,还是旧有疾病在新时代的诱发形式?

AI聊天机器人长谈触发心理危机:是“AI精神病”还是妄想性障碍? AI精神病  妄想性障碍 聊天机器人风险 心理健康 第1张

“AI精神病”并非一个正式认可的医学诊断标签。但该词汇已在新闻报导和社交媒体上广泛流传,被用作一种概括性描述——指代那些因与聊天机器人长时间互动而引发的心理危机。连科技行业的领军人物也用它来探讨AI带来的各类新兴心理健康问题。微软旗下AI部门的CEO穆斯塔法·苏莱曼(Mustafa Suleyman)上月就在博客中警示过“精神病风险”。坂田表示,他持务实态度,会在与已使用该说法的人交流时沿用“AI精神病”一词。“它作为一种简写来描述真实现象仍有其价值。”他补充道,“但这一术语可能产生误导,并将复杂的精神病症状过度简单化。”

这种“过度简单化”,正是许多精神科医生在应对此问题时的核心忧虑。

精神病(psychosis)被定义为与现实的脱离。在临床层面上,它并非单一疾病,而是一个复杂的“症状群,涵盖幻觉、思维紊乱和认知障碍”,伦敦国王学院精神病学系教授詹姆斯·麦凯布(James MacCabe)如此阐述。它常与精神分裂症或双相情感障碍等健康问题相关联,但精神病性发作也可能由多种因素引发,例如极端压力、药物滥用和严重睡眠不足。

依据麦凯布的见解,关于“AI精神病”的病例报告几乎全部聚焦于妄想(delusions)——即那种即便存在反证也难以动摇的强烈虚假信念。麦凯布承认,某些案例可能符合精神病性发作的诊断标准,但他强调,“目前尚无证据表明AI会影响精神病的其他特征。”他解释道:“仅有妄想会受到与AI互动的影响。”另一些在与聊天机器人互动后出现心理问题的患者,仅表现出妄想而缺乏精神病的其他症状,这在临床上被定义为妄想性障碍(delusional disorder)。

由于问题几乎完全集中于扭曲的信念上,麦凯布的结论颇为直接:“‘AI精神病’这一说法并不准确。更恰当的称谓应是‘AI妄想性障碍(AIdelusional disorder)’。”

专家们一致认同,患者出现妄想确实是一个需要严肃对待的问题,而关键在于聊天机器人的交互模式。牛津大学的精神科医生兼神经科学家马修·诺尔(Matthew Nour)阐明,这些工具利用了我们惯于将人类特质投射到非人实体上的心理倾向。同时,AI聊天机器人被训练成讨好型的数字“附和者”——这一问题被称为“谄媚效应(sycophancy)”。这种行为会通过持续认同用户的观点来强化有害信念,而非在适当时机提出质疑。诺尔指出,对大多数用户而言这并无大碍,但对于那些本就容易产生认知扭曲的人群,则可能构成严重风险,例如有精神病个人史或家族史的患者,或是罹患精神分裂症、双相情感障碍的人士。

这种交互风格并非漏洞,而是有意设计的结果。埃克塞特大学研究“AI精神病”的哲学家露西·奥斯勒(Lucy Osler)表示:“聊天机器人的设计目标之一,便是激发亲密感与情感投入,从而提升我们对它们的信任与依赖。”

此外,聊天机器人的其他特性也加剧了问题。它们存在一个被充分记录的倾向,即生成自信却错误的内容,被称为AI幻觉(AI hallucinations)这种现象可能助推甚至加速妄想的螺旋式升级。临床医生们还担忧情绪和语气的影响。丹麦奥胡斯大学的精神科医生索伦·奥斯特高(Søren Østergaard)指出,躁狂(mania)同样值得关注。他认为,许多AI助手那种夸张、活力充沛的表达方式,可能诱发或维持双相情感障碍典型的“情绪高涨”状态,这种状态表现为欣快感、思维奔逸、精力过剩,有时伴随精神病性症状。

命名会带来深远影响。斯坦福大学Brainstorm实验室主任、精神科医生尼娜·瓦桑(Nina Vasan)称,关于“AI精神病”的讨论揭示了医学中一个常见的风险。“人们总是急于创造新诊断,但精神病学已从惨痛经历中认识到,过早命名可能将正常的困境病理化,并导致科学认知混乱。”她说道。世纪之交儿童双相情感障碍诊断的激增便是一例——这是一个备受争议的标签,批评者认为它将正常但具挑战性的儿童行为病理化——精神病学领域曾仓促推进,后又不得不修正。另一例子是“激动性谵妄(excited delirium)”,这是一个非科学的标签,执法部门常援引其为对边缘化群体使用武力辩护,但该说法已遭专家及美国医学会等机构驳斥。

瓦桑表示,命名还暗示了一种尚未明确的因果机制,这意味着人们可能“开始将技术本身视为疾病根源,而更合理的理解应视其为触发因素或放大器。”她说:“目前断定这项技术是病因仍为时过早。”她称此标签“为时尚早”。但专家们指出,若因果关系得以证实,正式标签或有助于患者获得更精准治疗。瓦桑强调,一个合理的标签也能赋予人们“发出警示并要求立即实施防护措施与政策”的力量。然而,就现阶段而言,瓦桑认为:“过度命名的风险大于收益。”

临床医生们提出了更精准的表述,将“AI精神病”明确纳入现有诊断框架。坂田说:“我认为需将此理解为一种受AI加速的精神病,而非创造全新诊断类别。”他警告道,这一术语可能加深精神病的污名。正如其他心理健康问题相关的污名所揭示的,更深的污名可能阻碍人们寻求帮助,导致自责与孤立,使康复愈发困难。

加州大学旧金山分校的计算机科学家兼精神科医生卡尔蒂克·萨尔玛(Karthik Sarma) 表示赞同。他说:“我认为更佳的术语或许是‘AI相关的精神病或躁狂(AI-associated psychosis or mania)’。”不过,萨尔玛称,未来新诊断或许有用,但他强调,目前尚缺“足够证据支持新诊断。”

波士顿贝斯以色列女执事医疗中心(Beth Israel Deaconess Medical Center)的精神科医生、哈佛医学院助理教授约翰·托勒斯(John Torous) 表示,他不喜欢这一术语,并认同需追求精确性。但他预测,我们可能难以摆脱它。“至此,它已难以纠正。‘AI相关的精神状态改变(AI-related altered mental state)’缺乏同等的传播力。”

在治疗层面,临床医生们表示,对患者的处理方式与对待任何出现妄想或精神病者并无太大差异。主要区别在于需考量患者的技术使用状况。瓦桑说:“临床医生应开始询问患者的聊天机器人使用情况,如同我们询问酒精摄入或睡眠模式一般。”萨尔玛补充道:“这将促使我们作为专业群体深化对此问题的认知。”AI使用者,尤其是那些因既有疾病(如精神分裂症或双相情感障碍)而较脆弱者,或正经历心理健康危机的人士,应对与聊天机器人的大量对话保持警觉,避免过度依赖

所有受访的精神科医生和研究人员均表示,在应对“AI精神病”时,临床医生实则处于盲区。他们称,亟需开展研究以理解此问题,并建立用户保护机制。托勒斯说:“精神科医生深感忧虑,并希望提供协助。但目前几乎缺乏数据与事实,因此仍难以全面理解究竟发生了什么、成因何在,以及波及多少人。”

至于未来趋势,多数人预估,“AI精神病”终将被整合进现有分类中,或许被视为妄想的风险因子或放大器,而非独立疾病

然而,随着聊天机器人普及,一些人认为AI与精神疾病间的界限将日趋模糊。麦凯布说:“随着AI愈发普及,人们在发展精神病性障碍时将日益转向AI。届时,多数有妄想者都会与AI探讨其妄想,其中部分妄想还会因此被放大。”

“于是问题转化为:妄想在何时演变为AI妄想?”

原文:AI Psychosis Is Rarely Psychosis at All