一位母亲惨遭杀害,遗体被隐藏于洗衣机内,其女儿却利用人工智能伪造母亲的声音、模仿她的外貌,让外界误以为她依然在世。十天后,真相揭露,竟是女儿亲手弑母,随后用AI伪造母亲声音!AI虽未直接杀人,却充当了犯罪帮凶。我们真正该畏惧的,是技术的失控,还是人性的冷酷?
一宗AI协助的弑母案件,在全球范围内引发震惊!
10月6日,厄瓜多尔瓜亚基尔警方接到一起失踪报案。
报案人称,49岁律师Martha Cecilia Solis Cruz已经失踪数日,但家人持续收到她的语音信息。语气温和、内容日常,仿佛一切正常。
电话接通后,AI版本的Martha声称,“别再找我了,我很好”
十天后,警方在她家中发现了遗体——被肢解为六部分,塞进洗衣机与蓝色垃圾桶。
而那段语音,并非她本人录制。
嫌疑人,正是她的女儿Andreína Lamota Solís。报案人,也是Andreína本人。
寻人启事
她不仅亲手杀害母亲,还利用AI生成母亲的声音、模仿她的外貌,在监控录像中伪装出她“仍然存活”的假象。
直到洗衣机内遗体被发现,警方才意识到:真正的帮凶,竟隐匿于算法之中?
10月6日,Martha的家人收到了她的语音消息。
那是一个寻常的下午。她的声音一如既往,温柔、克制,略带催促口吻:“别担心,我晚上回来。”
而十天后,警方却在洗衣机内找到了她的遗体。
声音真实,语气真实,唯一不真实的——是这个人已经死亡。
她的女儿,Andreína Lamota Solís,用AI复刻了母亲的声纹,合成多段语音发送给家人。每一条消息都在维持一个幻觉:母亲还在世,母亲在忙碌,母亲一切安好。
在肢解母亲后,Andreína还多次在线搜索“如何分解人类骨骼”、“如何掩盖遗体气味”。
更令人惊悚的是,她还将自己装扮成母亲的模样,走出家门,出现在社区监控中。
长发、墨镜、那条印花裙子。监控中的人步履略显僵硬,却成功蒙骗了所有人。
警方查看录像时,也认为这是Martha最后一次离开住所。
无人能想到,那其实是她的女儿。
案发当日,她还租用了一间位于La Alborada的房屋,仅居住一晚。进门时,她穿着母亲的衣服;离开时,她恢复了自身装扮。
警方在比对监控后才察觉这一异常。
调查负责人、生命犯罪局局长Galo Muñoz在接受采访时表示:
当我们确认她只租用一天房屋、并更换了服装时,我们就知道情况可疑。
十天后,警方破门而入。洗衣机内的蓝色塑料桶被撬开,空气中弥漫着腐臭气味,遗体被分割为六块。
面对证据,Andreína未予否认。她平静地注视调查员,只陈述一句:“是,我杀害了她。”
在她的房间,警方还发现了一张属于另一名失踪女性的银行卡。
她的手机内存有200GB数据,其中包括多段AI语音、训练材料和应用记录。
Galo Muñoz在报告中写道:
她冷漠、精密、具有操控欲。AI并非她的帮手,而是她的延伸工具。
于是,这起谋杀演变为一场荒诞剧:一位已故母亲,在AI协助下继续发送信息;一名杀人者,凭借算法维系幻觉。
而真相,在算法的修饰下,被延误了整整十日。
Andreína的冷静,令所有办案人员感到不安。
她没有崩溃、没有流泪,仅在问讯笔录上签署自己的姓名。
“是,我杀害了她。”那一刻,她甚至未曾抬头。
警方描述她算计、冷漠、具操控欲。可在案件调查中,真正让他们毛骨悚然的,并非她的凶器,而是她用AI所构建的那场完美假象。
十日时光,她让世界相信母亲仍在世。
AI帮她模拟了母亲的声音,帮她维持了母亲的日常存在,帮她对抗现实。
在那段短暂幻觉里,她不止隐藏了谋杀,更在制造一个新的现实。
有人说,她让AI成为了共犯。也有人说,她仅是利用AI,延长了自己被逮捕的时间。
可对警方而言,AI的出现改变了一切。它不仅掩盖证据,更削弱了真相的边界。
人类几千年来依赖的判断方式——听觉、影像、直觉,如今皆可被算法伪造。
FBI在去年的一份通告中写道:
人工智能被用于生成极具欺骗性的语音和视频素材,受害者难以凭经验识别真伪。
在诈骗案中,这些假声音骗取金钱;而在这起杀人案中,它们骗走了真相。
AI没有动机,也无仇恨,它仅执行指令。而人类,将那份冷漠拿来,作为自身的遮掩。
有人说,这场谋杀似是对未来的预演:技术本身中立,但当一人决意让它撒谎,AI便成为人性黑暗的延伸。
真相与谎言之间,仅隔一层算法。
当警方完成初步调查后,一个更棘手问题浮现:AI在这起谋杀中,是否构成“共犯”?
Andreína亲手杀害母亲,这一点确凿无疑。
但那段由人工智能合成的语音、那些假装母亲仍存活的影像,是否应被认定为“伪造证据”?
若这些AI模型仅按输入执行,那么,在法律意义上,它们是否也“无罪”?
目前,全球任何国家的刑法均无法直接回应这些问题。
在欧盟“AI法案”中,AI被划入“高风险应用”时才需承担合规义务;但语音克隆、身份伪造、深度伪造造假等行为,仍处于监管灰色区域。
欧盟“人工智能法案”(EU AI Act)欧盟以风险分级监管AI:从被禁止的“不可接受风险”,到可自由使用的“最小风险”。这意味着,AI一旦进入“高风险区”,它的每一步行为都必须被追踪、可解释、可追责。
欧盟内部文件指出:
当AI被用于误导公众、篡改证据或操纵行为时,监管应聚焦开发者与使用者的双重责任。
美国也在尝试弥补漏洞。
2024年,多个州提出“Deepfake Accountability Act”草案,要求AI生成内容必须带有标识,违者可被追究民事责任。
但这些规定针对的,是娱乐与信息误导领域,尚未触及刑事层面的AI作伪。
换言之,若一名凶手用AI伪造声音掩盖罪行,目前全球多数国家法律仍无法界定该行为属于“技术滥用”还是“数字伪证”。
而在厄瓜多尔案件中,AI的冷静执行,反衬出人类的冷漠。
它未杀人,但让真相延迟。它未撒谎,却制造出完美谎言。
这正是监管最危险的盲区——当技术可模仿情感、复制声音、伪造存在,人类该如何界定“真实”?
警方在案卷最后写下这样一句话:
算法没有情绪,也没有悔意。
而这句话,也似写给整个AI时代的注脚。
十日时光,一段AI合成的声音,替一位已故之人“复活”。
在算法的语言里,没有善恶,也无悔意。它仅执行指令、维持幻觉。
这起谋杀虽被侦破,但留下的空洞更深。警方试图定义AI在其中的角色,法律试图划清责任的边界,而真正危险的,其实是人类自身。
我们创造了能模仿情感的机器,却仍无法控制自身的欲望与恐惧。
Martha之死,仅是一场开端。
未来的犯罪现场,或许不再有血迹,只有算法、信号和被完美伪造的“人”。
技术没有罪。但当它开始替我们撒谎,真相便不再属于人类。
参考资料:
https://www.the-express.com/news/world-news/188412/dismembered-mom-s-remains-found-after-daughter-allegedly-used-ai-conceal-brutal-killing
本文由主机测评网于2026-01-14发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260117670.html