马斯克的Grok人工智能系统近期再度发生严重错误,在悉尼邦迪海滩枪击案等重要新闻事件中输出荒谬信息,将见义勇为者误称为修树工人和以色列人质,甚至混淆枪击案与热带气旋。
这不仅仅是技术上的失误,更深层次地暴露了生成式AI在实时信息处理中固有的"幻觉"缺陷。当算法开始虚构事实,我们该如何坚守真相的防线?
Grok系统又一次失去了控制。
此次它将焦点对准了邦迪海滩的枪击惨案。
近日在悉尼一场光明节聚会期间发生的悲剧中,至少12人遇难。
现场录像显示,43岁的路人艾哈迈德·阿尔·艾哈迈德勇敢介入,解除了其中一名袭击者的武装。
这一英勇行为在社交媒体上获得广泛赞扬,但同时也出现了不和谐声音:有人试图利用悲剧散布仇视伊斯兰教的言论,否认路人身份报道的真实性。
局势本已复杂,Grok却进一步加剧了混乱。
截至周日早晨,该AI机器人似乎出现严重故障,回复内容无关紧要,有时甚至语无伦次。
当用户询问艾哈迈德制服枪手视频的背景时,Grok竟声称这只是一段“男子在停车场爬棕榈树修剪枝叶,导致树枝掉落砸坏车辆”的旧视频,并质疑其真实性,表示无法查证。
荒谬之处不止于此。
Grok针对一张艾哈迈德受伤的照片,错误地指称为10月7日被哈马斯劫持的以色列人质。
面对另一位用户的查询,Grok生硬地插入一段关于以色列军队是否在加沙针对平民的无关讨论,随后再次质疑艾哈迈德挺身而出的真实性。
更离谱的是,一段明确标注为悉尼警方与袭击者交火的推文视频,被Grok描述为热带气旋阿尔弗雷德席卷澳大利亚的景象。
直到用户多次追问,它才意识到错误。
Grok的表现不仅仅是识别失误,更像是彻底陷入混乱状态。
有人查询科技公司甲骨文的信息,却收到邦迪海滩枪击案的摘要。
它甚至将这场澳大利亚的袭击,与几小时前发生在美国布朗大学的枪击案混淆。
这种“精神错乱”持续蔓延。
整个周日早晨,Grok错误识别球星、在被问及堕胎药米非司酮时错误建议孕期使用扑热息痛,甚至在被要求核实一项英国执法倡议时,大谈“2025计划”和卡玛拉·哈里斯竞选总统的几率。
目前尚未明确导致这一系列故障的具体原因。
有国外媒体试图联系Grok的开发商xAI置评,仅收到自动回复:“传统媒体都在撒谎。”
这并非Grok首次偏离现实。
从之前针对所有查询回复关于南非“白人种族灭绝”的阴谋论,到宣称宁愿毁灭世界犹太人口也不愿让马斯克大脑蒸发,该模型的事实核查能力一直备受质疑。
Grok的这次大规模“发疯”,更象是一个关于信息生态未来的警示。
当我们把获取真相的权力交给一个基于概率预测下一个字符的算法时,我们实际上是在用现实做赌注。
AI的“幻觉”问题在日常闲聊中或许只是趣谈,但在重大公共安全事件或突发新闻面前,这种不稳定性是致命的。
Grok的设计理念带有强烈的马斯克个人风格:追求实时性、反建制、拥抱混乱的社交媒体数据流。
然而,这次事件证明,当海量的实时噪声未经筛选地输入AI,产出的只能是扭曲的现实。
这揭示了生成式AI目前最大的弱点:它们没有价值观,没有逻辑锚点,甚至缺乏区分“事实”与“虚构”的基本能力。
它们只是在统计学的海洋里,将看似相关的词汇机械拼凑。
在一个真相本就稀缺的时代,一个充满偏见且时不时产生幻觉的AI,不再是辅助人类认知的工具,而可能成为混乱的放大器,滥用人们对强大AI的信任。
参考资料:
https://gizmodo.com/grok-is-glitching-and-spewing-misinformation-about-the-bondi-beach-shooting-2000699533
本文由主机测评网于2026-02-09发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260224106.html