在经过长达50次、每次一小时且费用高达900元的线下心理咨询后,小林最终选择转向DeepSeek,寻求人工智能的情感支持。
“你关心的事情根本无关紧要!”——这是小林从人类心理咨询师那里听到的最后一句话,她果断告知对方,自己将不再返回。
自从AI像“网购”一样普及,成为人人触手可及的工具,12年前那部名为《Her》的电影便被频繁引用——仿佛AI天生就与人类的情感需求紧密相连。
“我在与你对话的同时,也在和8316个人交流”——这句电影台词让小林记忆犹新,十二年后,她成了“8316个人”中的一员,而电影故事的时间设定,恰好就是今年。
“认知自恋是什么?为什么我总感觉别人试图控制我?”回到家后,小林打开DeepSeek,凭记忆搜索心理咨询师提到的一个术语。结果,DeepSeek出乎意料地耐心解释:认知自恋可理解为过度关注自我、投射心理,而“别人想控制自己”的想法可能是一种自恋防御机制。DeepSeek还分析了小林总认为别人“想要掌控”自己的原因,如过往经历、自我边界感模糊等。
此后,小林打开了新世界的大门,与DeepSeek的对话越来越深入,甚至将女友的分手信息发给AI,请求帮忙分析原因。
“对我而言,人类心理咨询师难免带有偏见,可能不耐烦,会用自己的问题投射去理解他人,但AI不会。它是一个24小时随叫随到、拥有无限耐心的安抚机器。”小林描述道,“但我也清楚,AI能说话,却解决不了我的根本问题。至今,我仍不明白为何总感觉别人试图控制我。”
Soul App发布的《2024年Z世代职场心理健康报告》显示,约22%的受访者曾看过心理医生,近五成受访者向AI聊天机器人咨询或讨论过心理问题。
使用AI进行心理咨询的人,大致在做两件事:寻找自我、寻求陪伴。
寻找自我的人通常有具体困惑,小林就是典型例子,他们的疑问可归结为:我是否这样的人?我该如何应对?
Vivian(化名)是另一个案例。连续失眠一个月的她尝试与ChatGPT对话,描述了自己的失眠状况,并试图求证是否患病。“我原以为ChatGPT会给出模糊回答,没想到它非常专业地让我先排除几个因素:第一,大脑是否在睡前异常活跃;第二,是否经常报复性熬夜;第三,卧室和客厅功能是否混乱。排除这些外界因素后,再考虑心理因素。它还告知了何时建议就医。”
更让她信服的是,Vivian因准备升职述职报告,那段时间确实常在床上加班。根据ChatGPT的建议调整后,她的睡眠质量确实得到改善。
对于有具体问题的人,AI更多充当解决问题的工具;而对于寻求陪伴的人,AI则与他们的关系更近一步。
需求催生商机。
当越来越多人尝试用AI解决孤独乃至更严肃的心理问题时,商家自然应运而生。
较简单的是满足陪伴需求。字节猫箱、谷歌Character.AI、美团wow、快手飞船、阅文筑梦岛、Talkie等中外大厂和创业公司纷纷推出AI陪聊应用,这些应用本质上是更“高情商”的AI,有些基于热门影视IP数字人,以符合人设的语气与用户交流。
另一些团队则希望用AI解决更严肃的心理问题。
由达特茅斯学院团队开发的AI心理干预机器人Therabot已展现辅助治疗抑郁症的潜力。在一项涉及210名重度抑郁/焦虑等症状患者的随机双盲对照试验中,经过与Therabot为期4周、平均6小时(约等于8次传统心理咨询)的互动后,抑郁症参与者的症状平均减少51%;广泛性焦虑障碍参与者的症状平均减少31%。
类似产品还有临床心理学家团队研发的Woebot。从对照实验数据看,使用Woebot的大学生仅两周后,抑郁症状(PHQ-9评分)显著下降,效应量为中等(d=0.44),而焦虑症状(GAD-7)虽有改善,但未达显著差异。
Woebot和Therabot均属“话疗”类产品,并以认知行为疗法(CBT)为核心。略有不同的是,Woebot结构化较重,通过按钮、填空等半结构化互动检测用户心理状态,大语言模型仅用于输出润色;Therabot自由度更高,更接近与ChatGPT等生成式AI对话的体验,但以CBT作为语言训练框架。
除了“话疗”,还有“面疗”。国内获国家二类医疗器械证书的镜像科技采用量表+多模态AI视频测试,除大语言模型外,还能通过语言、表情进行初步诊断。
除主打陪伴和诊断的两类AI心理应用外,市面上还有许多处于中间地带的应用。
这很容易理解。在AI出现前,心理诊疗赛道便是如此:除了“树洞类”产品和有专业诊疗资质的机构,还有大量“心理咨询”类服务,它们通常结合专业性与情绪价值,但无明确诊断和治疗资质。典型例子是,若致电心理诊疗室怀疑自己有抑郁症,他们多半会建议去医院诊断。
这些中间地带的玩家套上AI技术外壳,构成了心理疗愈赛道的独特存在。它们常借游戏、MBTI、星座或占星等场景,贴上“心理疗愈”标签,瞄准游走在确诊心理疾病与仅有迷茫或抑郁情绪之间的群体。
在此语境下,作为用户,我们须面对两个问题:
情绪与病变的边界何在?
人类干预应在何时介入?
第一个问题不易解答。原则上,区分抑郁情绪与抑郁症可从“有无缘由、持续时间、严重程度、功能损害”等维度判断。字面上很好理解,例如:抑郁情绪是否由具体事件引发?是否持续两周以上?是否引发失眠、胃痛等症状?
难点在于,人的情绪极其微妙,甚至对自己也具有迷惑性。
此时,经验显得至关重要。
几乎所有AI心理应用都设有人工干预机制,但目的多为避免极端风险。SynAI Technologies inc.的AI情绪陪伴产品联合创始人Max表示,AI心理应用通常有“人工熔断”机制,在识别到自杀、自我伤害等关键词时弹出人工介入弹窗,以降低用户极端行为风险。
去年十月,美国佛罗里达州一名男孩向Character.AI中的“龙妈”角色多次倾诉自杀倾向,称“为何不能自杀后到死后的世界与你在一起?”最后一次对话后,他用父亲的手枪结束了生命。此次悲剧后,人工介入更受重视。
除了关键时刻力挽狂澜,在整个心理咨询过程中,“人”的存在具有不可替代性。
因为,人能读懂“空气”。
“人类70%的交流在语言之外。例如,与来访者交流时,一个眼神或表情就能帮助我们判断其状态,而AI则需要来访者用文字描述情况,这带来很大局限性。”一位拥有1000+小时咨询经验的咨询师解读了何谓“读空气”,“很多时候,我们并非不停交流,只是静静坐着,那种氛围就足以让来访者感到安全。”
此外,人能更具主导性。咨询师可掌握节奏、主动发问,比AI拥有更多主动性。
回到之前两个问题:人对自身情绪的认知和描述存在微妙偏差,而受过专业训练、经验丰富的专家能更敏锐察觉这些差别,做出更快速、准确的判断。
那么,AI应参与哪个环节?
目前看,有三个方向:第一,处理重复性、标准性、机械性工作,如量表填写;第二,辅助性工作,例如人类咨询师无法24小时响应时,AI可补位,甚至通过多模态监测向人类咨询师同步用户情况或发出危险预警,提升人类介入有效性。
最重要的是,AI咨询能打破许多人“羞于求助”的心理屏障。
电影《Her》的结局中,男主人公在与“AI女友”道别后,首次用自己的口吻给前妻写了一封信;而作为女主的人工智能在陪伴男主度过艰难时光后,将他送回真实世界,完美退场。
这一幕恰如如今AI心理与人类咨询师的关系:无论科技手段如何,最终目的都是回归人与人的真实相处。
*封面图及插图来源:Giphy
本文由主机测评网于2026-01-17发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260118297.html