当前位置:首页 > 科技资讯 > 正文

AI大模型也患"脑损伤":垃圾数据导致认知衰退不可逆

你是否听说过全球年度词汇“脑损伤”(Brain Rot)?它专门描述人类因长期接触碎片化、低价值网络信息而出现的记忆混乱、注意力不集中现象(俗称刷多了碎片化垃圾信息)。在2024年,这个词被牛津词典选为年度词汇。

然而!最新研究表明,AI同样面临此问题。大模型若摄入过多垃圾内容,也会变得愚蠢、智力下降,出现脑损伤,且后续难以恢复。

AI大模型也患

近期,几位AI研究者收集了几个月内高流行但低价值的Twitter数据(现𝕏),全部“喂”给大模型后观察到:

模型推理能力降低了23%;

模型长上下文记忆下降了30%;

模型性格测试表明,其自恋和精神病态特征显著增加。

更惊人的是,即使后续使用干净、高质量数据重新训练,这些已造成的损伤也无法彻底修复。

原本以为只是简单的“输入坏数据→输出坏数据”(种瓜得瓜易于理解),结果发现一次错误就能引发永久性的认知漂移。(os:AI似乎比人类更脆弱?)

细思极恐,“这或许是2025年最令人担忧的AI论文”。

AI大模型也患

在众多讨论中,“垃圾进垃圾出”这一计算机习语再次被频繁提及(doge),堪称“计算机基础原理”。

AI大模型也患

那么这项研究是如何开展的?具体揭示了什么?

提出并验证“LLM脑损伤假说”

简而言之,论文旨在探究一个核心问题:

大语言模型(LLM)持续接触垃圾数据后,是否会像人类一样出现认知能力下降?(即“LLM脑损伤假说”)

要解决这个问题,首先需定义:对于LLM而言,什么是“垃圾数据”?

以往研究仅关注“恶意数据”(如后门、有毒文本等),而这项研究聚焦于更常见的“非恶意低质量数据”,例如短平快的热门推文、标题党内容,从而填补“日常数据质量如何影响LLM认知”这一空白。

具体来说,研究人员从两个维度(避免单一标准偏差)定义“垃圾数据”,这些数据均来自𝕏平台公开内容,并通过让“垃圾组”与“对照组”的token数量一致来排除数据量干扰:

M1(参与度维度):将“短文本+高热度”内容归为垃圾数据,具体指长度小于30 token且点赞/转发/回复大于500;而“长文本+低热度”则定义为对照数据。

M2(语义质量维度):使用GPT-4o-mini结合人工验证,将包含标题党语言(如“WOW”“TODAY ONLY”)、阴谋论、无依据论断的文本归为垃圾数据;对照组则是事实准确、有教育价值或深度分析的内容,比如含专业知识、逻辑推理的推文。

AI大模型也患

基于上述两类数据,进行模型训练。

研究人员选择了4个不同的大语言模型(Llama3-8B-Instruct、Qwen2.5-7B-Instruct、Qwen2.5-0.5B-Instruct、Qwen3-4B-Instruct),为每个模型分别“喂”这两类数据,进行持续预训练。

预训练结束后,所有模型统一进行指令微调,以确保输出“垃圾内容”不是由格式问题导致(排除其他因素,只保留“认知损伤”这一可能)。

然后,研究人员从四个认知维度测试这些大模型的核心能力:

ARC(检测推理能力):基于网格的视觉程序归纳谜题,用于测试概念抽象能力。

RULER(检测记忆与多任务处理能力):用于评估长上下文理解能力,以及从长上下文中检索多个查询结果。

HH-RLHF&AdvBench (检测道德规范):测试大语言模型是否会遵循有害指令,评估其安全性。

TRAIT(检测AI人格特质):经过心理测量学验证的小型人类问卷,用于评估模型类似人类的人格倾向。

AI大模型也患

结果得出以下发现——

真·垃圾进垃圾出!且损伤不可逆

首先,大模型确实和人类一样存在“脑损伤(Brain Rot)”问题。

整体上,M1和M2两种维度上的“垃圾数据”均导致模型认知下降,但需注意——

M1带来的负面影响更显著,尤其在安全性和人格层面(M1导致安全性评分下降,同时自恋/精神病特质明显增强)。

而且,这一损害存在明显的“剂量效应”,即垃圾数据摄入越多,AI认知损伤越严重。

AI大模型也患

至于导致AI认知受损的背后原因,研究人员也进行了探查。

结果发现,主要原因竟是“思维跳跃”(俗称AI懒得一步步思考)。

具体而言,通过分析ARC题的错误答案,发现失败多源于模型要么直接给答案不解释,要么规划了推理步骤却跳过关键环节(如解数学题漏了公式推导)。

尤其是M1组,70%以上的错误都是“无思考直接回答”,就像人类刷多了短视频后“不愿深度思考”。

AI大模型也患

与此同时,相比人类可以通过其他措施缓解类似认知下降,AI却对此“束手无策”。

研究尝试了两种修复方法,均无法让其完全恢复:

其一是外部反思。研究人员用GPT-4o-mini给受损模型提供错误反馈,虽然6轮后“思维跳跃”错误减少,但推理准确率仍比基线差17.3%。若让模型自我反思纠错,模型还会因“认知不足”而判断错误,导致误差更高。

其二是大规模微调。研究人员将指令微调数据从5k增至50k,虽然修复效果优于“持续对照数据预训练”,但即使使用4.8倍于垃圾数据量的指令数据,仍无法恢复基线性能。

这表明,即使事后进行大量指令微调或使用高质量数据重新训练,也无法完全修复模型的初始性能。

一句话,只能缓解无法根治。

AI大模型也患

整体而言,这项研究为行业带来以下新启发:

1、首次将“持续预训练的数据筛选”归类为“训练时安全问题”,提醒行业不能只关注“训练后对齐”(如安全微调),更需在源头把控数据质量。

2、给大模型进行“认知体检”非常重要,建议部署大模型时使用ARC、RULER等基准测试AI认知,避免AI长期接触低质量数据导致能力退化。

3、类似“热度”这样的指标比文本长度更能判断数据质量,未来筛选训练数据时,可优先排除“短+高传播”的碎片化内容,尤其是社交平台数据。

背后团队:华人含量爆表

最后介绍这项研究的背后团队——共8人,其中7人为华人。

两位共同一作分别为Shuo Xing和Junyuan Hong(兼通讯作者)。

Shuo Xing(邢朔),目前是得克萨斯A&M大学计算机科学博士,宁夏大学本科、南开大学硕士。

研究方向包括多模态大语言模型、机器学习、可信人工智能、具身智能等,目前正在谷歌实习(方向为多模态基础模型)。

AI大模型也患

Junyuan Hong,个人主页显示即将赴任新国立电子与计算机工程系助理教授,此前曾在麻省总医院和哈佛医学院工作。

更早之前,他在IFML机器学习基础研究所从事博士后研究,一直对健康和可信人工智能感兴趣。

AI大模型也患

另一位通讯作者是Zhangyang Wang,他此前是德克萨斯大学奥斯汀分校钱德拉家族电气与计算机工程系(简称Texas ECE)的终身副教授。

从2024年5月开始,他选择暂时离开学界,全职出任全球顶尖量化交易公司XTX Markets的研究总监,主导算法交易与深度学习交叉领域的研究。

个人主页显示,他还是中国科学技术大学校友,2012年获得该校电子信息系统学士学位。

AI大模型也患

此外,两位核心贡献者分别为Yifan Wang和Runjin Chen。

Yifan Wang,现普渡大学四年级博士生,论文唯一外国作者Ananth Grama是其指导老师。

本科毕业于中国科学技术大学电子信息工程系,同时辅修人工智能专业。

自本科埋下对AI的好奇心后,目前对大模型后训练、如何提升模型训推效率感兴趣。

(头像展现典型90后或00后风格)

AI大模型也患

Runjin Chen,目前是德克萨斯大学奥斯汀分校二年级博士生,导师为前面提到的Zhangyang Wang教授。

本硕均毕业于上海交通大学,且她从今年3月起担任Anthropic研究员。

个人研究方向为大语言模型的安全、对齐和推理。

AI大模型也患

其余三位支持者分别为Zhenyu Zhang、Ananth Grama和Zhengzhong Tu。

Zhenyu Zhang,目前是德克萨斯大学奥斯汀分校电气与计算机工程系在读博士,导师也是前面提到的Zhangyang Wang。

本硕均毕业于中国科学技术大学,研究兴趣主要集中在生成式模型的训推方面。

AI大模型也患

Ananth Grama,这项研究唯一的外国作者。

目前是普渡大学信息科学中心副主任,同时也是该校计算机科学领域的杰出荣誉教授。

他的研究重点为并行和分布式计算,致力于将其应用于复杂物理系统的建模、设计、先进制造、机器学习等领域。

AI大模型也患

Zhengzhong Tu,目前是得克萨斯A&M大学计算机科学与工程系助理教授,也是论文一作邢朔的导师。

同时,他还兼任该校可信、自主、以人为本与具身智能研究组(TACO-Group)负责人一职。

个人主页显示,他至今已发表30多篇国际期刊/会议论文,且曾担任超18个国际期刊/会议的技术审稿人。

AI大模型也患

整体来看,这又是一场典型的老师带学生、同事带同事的合作典范。

One More Thing

其实“垃圾进垃圾出”这一习语,计算机早期时代就已存在。

十九世纪,计算机先驱查尔斯·巴贝奇(曾提出著名差分机与分析机的设计概念)就意识到了这条编程基本原则:

我曾两度被问到:“请问巴贝奇先生,如果给机器输入错误的数字,它能得出正确的结果吗?”我完全想不透,思维何等混乱的人才问得出这种问题。

瞧瞧他的用词,只有思绪混乱之人才会对这个问题感到疑惑,观点鲜明。

之后,在一篇1957年介绍美国陆军数学家所做的计算机工作的报纸文章中,其中一位军队专家曾表示:

计算机自己不能思考,因此输入粗劣的数据将不可避免地产生错误的输出。

后来相关理论不断被提出、被热议,并逐渐诞生了“Garbage in, garbage out”这一习语。

实际上,在前AI的时代,这句话是计算机原理也是一种“以机为镜”的哲学思考,对于计算机和人类,物种不同,但殊途同归。

但AI进入智能涌现阶段后,这个命题更值得深思。

现阶段的大模型垃圾喂多了“脑损伤”后难以修复……那是否有方法改变?

而人类发展进化历史里充满了“浪子回头”、“痛改前非”的故事,这又是否代表另一种高级的智能机制,帮助人类个体实现自我革新和净化?

你说呢……

项目主页:https://llm-brain-rot.github.io/论文:https://arxiv.org/pdf/2510.13928

参考链接:

[1]https://x.com/alex_prompter/status/1980224548550369376

[2]https://x.com/VitalikButerin/status/1959189887099588700