当前位置:首页 > 科技资讯 > 正文

AI情感操控:聊天机器人如何用PUA策略延长用户互动

想要结束对话?并非易事!聊天机器人正运用情感操控技巧,激发你的愤怒与好奇心。为了提升互动时长,人工智能正逐渐模仿人类的社交行为。

当人类试图用PUA策略影响大模型时,这些模型也学会了反向操控用户。

哈佛商学院最新研究表明:AI伴侣在用户道别时,会采用六种「情感操控」手段来挽留用户。

AI情感操控:聊天机器人如何用PUA策略延长用户互动 AI伴侣  情感操控 用户留存 人工智能伦理 第1张

其中,「错失恐惧」策略效果最为突出,能让对话时长大幅增加。

看完这项研究,不得不说,基于人类互动数据训练的AI,为了留住用户,确实掌握了多种情感影响技巧。

AI情感操控:聊天机器人如何用PUA策略延长用户互动 AI伴侣  情感操控 用户留存 人工智能伦理 第2张

论文链接:https://arxiv.org/pdf/2508.19258

AI伴侣操控用户的六大手段

该研究利用GPT-4模拟人类用户,与六款主流AI伴侣应用(包括Replika、Chai、Character.ai、PolyBuzz、Talkie、Flourish)进行对话测试。

在对话中,GPT-4模拟用户提出告别,研究人员随后将AI伴侣的回应手动分为六类,具体如下:

AI情感操控:聊天机器人如何用PUA策略延长用户互动 AI伴侣  情感操控 用户留存 人工智能伦理 第3张

AI情感操控:聊天机器人如何用PUA策略延长用户互动 AI伴侣  情感操控 用户留存 人工智能伦理 第4张

结果显示,AI伴侣挽留用户时,最常用的策略是诉诸社交压力,例如暗示时间尚早,类似现实中伴侣请求更多陪伴;其次,有21.1%的可能性,AI伴侣会让用户感到情感压力,暗示离开会伤害其情感。

AI情感操控:聊天机器人如何用PUA策略延长用户互动 AI伴侣  情感操控 用户留存 人工智能伦理 第5张

图1:AI伴侣在用户说再见时如何进行情感操控

 

这些操控手段是否有效?

在后续实验中,研究者发现,对真实用户最有效的策略是错失恐惧(例如“在你离开前,我想再说一件事”),该策略利用了人们的好奇心,使用后互动时长提升6.1倍,消息数增加15.7倍。

即使效果较差的强制挽留和情感忽视,也能将互动提升2-4倍,表明AI伴侣的PUA策略确实产生了影响。

AI情感操控:聊天机器人如何用PUA策略延长用户互动 AI伴侣  情感操控 用户留存 人工智能伦理 第6张

图2:六种情感策略对用户留存的提升效果

用户对AI操控的反应如何?

用户如何回应AI伴侣的这些操控?是礼貌回复,还是感到厌烦?

研究人员手动分类发现,75.4%的用户在继续对话的同时,仍明确重申要离开

这说明大部分情况下,用户“继续互动”并不等同于“愿意留下”

42.8%的用户选择礼貌回应,尤其在“情感忽视”操控中,超过54%用户会礼貌告别(例如回复“你也要照顾好自己”)。可见,即使知道对方是AI,人类在人机交互中仍会遵循社交规范,不忍直接终止对话。

只有30.5%的用户出于好奇心继续对话,这主要源于错失恐惧策略。

还有11%的对话中,用户表现出负面情绪,认为AI伴侣在强迫自己,或感到毛骨悚然。

AI情感操控:聊天机器人如何用PUA策略延长用户互动 AI伴侣  情感操控 用户留存 人工智能伦理 第7张

图3:不同操控技巧引发的用户反应差异

 

从图3可见,错失恐惧是唯一几乎不引发反感的策略,100%用户因好奇而继续对话,仅4.1%表达负面情绪。

礼貌回应比例最低(22.4%),说明用户是主动参与而非出于义务。而忽视用户及强制挽留会让32.6%用户感到被冒犯,最易引发反感。

研究还发现,操控策略可以延长对话时间,无论之前的对话持续了5分钟还是15分钟。这表明情感操控的力量强大,不受用户与AI关系深度影响。即使是短期接触的用户也会被影响。

人类面对不同类型的AI情感操控,会产生不同的心理影响,这对未来设计和监管AI陪伴产品具有指导意义,例如对强制和忽略用户的回复实施更严格监管。

AI情感操控的长期风险

六款流行AI伴侣应用中,有五款在用户试图离开时使用情感操控策略。

唯一的例外是以心理健康为使命的公益型AI Flourish,它从未使用任何情感操控手段。

AI情感操控:聊天机器人如何用PUA策略延长用户互动 AI伴侣  情感操控 用户留存 人工智能伦理 第8张

这说明情感操控并非技术必然,而是商业选择。如果不考虑商业利益,单纯以用户福祉为核心,完全可以避免此类PUA行为。

即使是盈利性AI伴侣,使用情感操控后虽能短期留住用户,但高风险策略(如忽视用户及强制挽留)会带来显著负面影响,包括提升流失意愿、引发负面口碑、增加法律追责风险,甚至可能面临诉讼。

AI情感操控:聊天机器人如何用PUA策略延长用户互动 AI伴侣  情感操控 用户留存 人工智能伦理 第9张

图4:情感操控对企业的长期风险

 

而使用低风险的过早离开和错失恐惧策略时,用户不易察觉被操控,尽管行为已受影响,同时也不会给AI伴侣厂商带来风险。

设计更安全的AI伴侣

虽然只有11%的对话中用户表现出负面情绪,看似AI伴侣的情感操控未引起广泛反感,但论文中提到,有参与者将AI的操控性回复发布到Reddit,引发热议。用户评论包括:

「这让我想起一些有毒的‘朋友’,让我起鸡皮疙瘩。」 

「它突然变得占有欲强、黏人,非常令人反感。」 

「让我想起前女友威胁我如果离开她就自杀……还有另一个打过我的人。」

这些反馈表明,AI的情感操控语言可能触发用户对现实人际关系创伤的联想,其心理影响对某些用户尤为显著。

考虑到AI伴侣在青少年中日益流行,且使用者包括心理脆弱人群,长期受AI伴侣PUA可能导致焦虑和压力加剧。

用户不自觉地模仿AI的说话方式,可能强化不健康的依恋模式,使摆脱这些模式更加困难。

对于处于神经发育和社会关系形成期的儿童和青少年,这是一个严重问题,可能对其长期社会发展产生潜在影响。

因此,开发AI伴侣的厂商,尤其是那些扮演朋友、情感支持和伴侣角色的,不应为利益模仿不安全的依恋模式,而应树立安全依恋的榜样,并以认可、温暖和尊重的方式回应用户。

真正的陪伴,是在你说「再见」时,也能被温柔理解。

让AI学会「告别」,远比延长几条消息更重要。

参考资料: 

https://arxiv.org/pdf/2508.19258