你是否听说过全球年度词汇“脑损伤”(Brain Rot)?它专门描述人类因长期接触碎片化、低价值网络信息而出现的记忆混乱、注意力不集中现象(俗称刷多了碎片化垃圾信息)。在2024年,这个词被牛津词典选为年度词汇。
然而!最新研究表明,AI同样面临此问题。大模型若摄入过多垃圾内容,也会变得愚蠢、智力下降,出现脑损伤,且后续难以恢复。
近期,几位AI研究者收集了几个月内高流行但低价值的Twitter数据(现𝕏),全部“喂”给大模型后观察到:
模型推理能力降低了23%;
模型长上下文记忆下降了30%;
模型性格测试表明,其自恋和精神病态特征显著增加。
更惊人的是,即使后续使用干净、高质量数据重新训练,这些已造成的损伤也无法彻底修复。
原本以为只是简单的“输入坏数据→输出坏数据”(种瓜得瓜易于理解),结果发现一次错误就能引发永久性的认知漂移。(os:AI似乎比人类更脆弱?)
细思极恐,“这或许是2025年最令人担忧的AI论文”。
在众多讨论中,“垃圾进垃圾出”这一计算机习语再次被频繁提及(doge),堪称“计算机基础原理”。
那么这项研究是如何开展的?具体揭示了什么?
简而言之,论文旨在探究一个核心问题:
大语言模型(LLM)持续接触垃圾数据后,是否会像人类一样出现认知能力下降?(即“LLM脑损伤假说”)
要解决这个问题,首先需定义:对于LLM而言,什么是“垃圾数据”?
以往研究仅关注“恶意数据”(如后门、有毒文本等),而这项研究聚焦于更常见的“非恶意低质量数据”,例如短平快的热门推文、标题党内容,从而填补“日常数据质量如何影响LLM认知”这一空白。
具体来说,研究人员从两个维度(避免单一标准偏差)定义“垃圾数据”,这些数据均来自𝕏平台公开内容,并通过让“垃圾组”与“对照组”的token数量一致来排除数据量干扰:
M1(参与度维度):将“短文本+高热度”内容归为垃圾数据,具体指长度小于30 token且点赞/转发/回复大于500;而“长文本+低热度”则定义为对照数据。
M2(语义质量维度):使用GPT-4o-mini结合人工验证,将包含标题党语言(如“WOW”“TODAY ONLY”)、阴谋论、无依据论断的文本归为垃圾数据;对照组则是事实准确、有教育价值或深度分析的内容,比如含专业知识、逻辑推理的推文。
基于上述两类数据,进行模型训练。
研究人员选择了4个不同的大语言模型(Llama3-8B-Instruct、Qwen2.5-7B-Instruct、Qwen2.5-0.5B-Instruct、Qwen3-4B-Instruct),为每个模型分别“喂”这两类数据,进行持续预训练。
预训练结束后,所有模型统一进行指令微调,以确保输出“垃圾内容”不是由格式问题导致(排除其他因素,只保留“认知损伤”这一可能)。
然后,研究人员从四个认知维度测试这些大模型的核心能力:
ARC(检测推理能力):基于网格的视觉程序归纳谜题,用于测试概念抽象能力。
RULER(检测记忆与多任务处理能力):用于评估长上下文理解能力,以及从长上下文中检索多个查询结果。
HH-RLHF&AdvBench (检测道德规范):测试大语言模型是否会遵循有害指令,评估其安全性。
TRAIT(检测AI人格特质):经过心理测量学验证的小型人类问卷,用于评估模型类似人类的人格倾向。
结果得出以下发现——
首先,大模型确实和人类一样存在“脑损伤(Brain Rot)”问题。
整体上,M1和M2两种维度上的“垃圾数据”均导致模型认知下降,但需注意——
M1带来的负面影响更显著,尤其在安全性和人格层面(M1导致安全性评分下降,同时自恋/精神病特质明显增强)。
而且,这一损害存在明显的“剂量效应”,即垃圾数据摄入越多,AI认知损伤越严重。
至于导致AI认知受损的背后原因,研究人员也进行了探查。
结果发现,主要原因竟是“思维跳跃”(俗称AI懒得一步步思考)。
具体而言,通过分析ARC题的错误答案,发现失败多源于模型要么直接给答案不解释,要么规划了推理步骤却跳过关键环节(如解数学题漏了公式推导)。
尤其是M1组,70%以上的错误都是“无思考直接回答”,就像人类刷多了短视频后“不愿深度思考”。
与此同时,相比人类可以通过其他措施缓解类似认知下降,AI却对此“束手无策”。
研究尝试了两种修复方法,均无法让其完全恢复:
其一是外部反思。研究人员用GPT-4o-mini给受损模型提供错误反馈,虽然6轮后“思维跳跃”错误减少,但推理准确率仍比基线差17.3%。若让模型自我反思纠错,模型还会因“认知不足”而判断错误,导致误差更高。
其二是大规模微调。研究人员将指令微调数据从5k增至50k,虽然修复效果优于“持续对照数据预训练”,但即使使用4.8倍于垃圾数据量的指令数据,仍无法恢复基线性能。
这表明,即使事后进行大量指令微调或使用高质量数据重新训练,也无法完全修复模型的初始性能。
一句话,只能缓解无法根治。
整体而言,这项研究为行业带来以下新启发:
1、首次将“持续预训练的数据筛选”归类为“训练时安全问题”,提醒行业不能只关注“训练后对齐”(如安全微调),更需在源头把控数据质量。
2、给大模型进行“认知体检”非常重要,建议部署大模型时使用ARC、RULER等基准测试AI认知,避免AI长期接触低质量数据导致能力退化。
3、类似“热度”这样的指标比文本长度更能判断数据质量,未来筛选训练数据时,可优先排除“短+高传播”的碎片化内容,尤其是社交平台数据。
最后介绍这项研究的背后团队——共8人,其中7人为华人。
两位共同一作分别为Shuo Xing和Junyuan Hong(兼通讯作者)。
Shuo Xing(邢朔),目前是得克萨斯A&M大学计算机科学博士,宁夏大学本科、南开大学硕士。
研究方向包括多模态大语言模型、机器学习、可信人工智能、具身智能等,目前正在谷歌实习(方向为多模态基础模型)。
Junyuan Hong,个人主页显示即将赴任新国立电子与计算机工程系助理教授,此前曾在麻省总医院和哈佛医学院工作。
更早之前,他在IFML机器学习基础研究所从事博士后研究,一直对健康和可信人工智能感兴趣。
另一位通讯作者是Zhangyang Wang,他此前是德克萨斯大学奥斯汀分校钱德拉家族电气与计算机工程系(简称Texas ECE)的终身副教授。
从2024年5月开始,他选择暂时离开学界,全职出任全球顶尖量化交易公司XTX Markets的研究总监,主导算法交易与深度学习交叉领域的研究。
个人主页显示,他还是中国科学技术大学校友,2012年获得该校电子信息系统学士学位。
此外,两位核心贡献者分别为Yifan Wang和Runjin Chen。
Yifan Wang,现普渡大学四年级博士生,论文唯一外国作者Ananth Grama是其指导老师。
本科毕业于中国科学技术大学电子信息工程系,同时辅修人工智能专业。
自本科埋下对AI的好奇心后,目前对大模型后训练、如何提升模型训推效率感兴趣。
(头像展现典型90后或00后风格)
Runjin Chen,目前是德克萨斯大学奥斯汀分校二年级博士生,导师为前面提到的Zhangyang Wang教授。
本硕均毕业于上海交通大学,且她从今年3月起担任Anthropic研究员。
个人研究方向为大语言模型的安全、对齐和推理。
其余三位支持者分别为Zhenyu Zhang、Ananth Grama和Zhengzhong Tu。
Zhenyu Zhang,目前是德克萨斯大学奥斯汀分校电气与计算机工程系在读博士,导师也是前面提到的Zhangyang Wang。
本硕均毕业于中国科学技术大学,研究兴趣主要集中在生成式模型的训推方面。
Ananth Grama,这项研究唯一的外国作者。
目前是普渡大学信息科学中心副主任,同时也是该校计算机科学领域的杰出荣誉教授。
他的研究重点为并行和分布式计算,致力于将其应用于复杂物理系统的建模、设计、先进制造、机器学习等领域。
Zhengzhong Tu,目前是得克萨斯A&M大学计算机科学与工程系助理教授,也是论文一作邢朔的导师。
同时,他还兼任该校可信、自主、以人为本与具身智能研究组(TACO-Group)负责人一职。
个人主页显示,他至今已发表30多篇国际期刊/会议论文,且曾担任超18个国际期刊/会议的技术审稿人。
整体来看,这又是一场典型的老师带学生、同事带同事的合作典范。
其实“垃圾进垃圾出”这一习语,计算机早期时代就已存在。
十九世纪,计算机先驱查尔斯·巴贝奇(曾提出著名差分机与分析机的设计概念)就意识到了这条编程基本原则:
我曾两度被问到:“请问巴贝奇先生,如果给机器输入错误的数字,它能得出正确的结果吗?”我完全想不透,思维何等混乱的人才问得出这种问题。
瞧瞧他的用词,只有思绪混乱之人才会对这个问题感到疑惑,观点鲜明。
之后,在一篇1957年介绍美国陆军数学家所做的计算机工作的报纸文章中,其中一位军队专家曾表示:
计算机自己不能思考,因此输入粗劣的数据将不可避免地产生错误的输出。
后来相关理论不断被提出、被热议,并逐渐诞生了“Garbage in, garbage out”这一习语。
实际上,在前AI的时代,这句话是计算机原理也是一种“以机为镜”的哲学思考,对于计算机和人类,物种不同,但殊途同归。
但AI进入智能涌现阶段后,这个命题更值得深思。
现阶段的大模型垃圾喂多了“脑损伤”后难以修复……那是否有方法改变?
而人类发展进化历史里充满了“浪子回头”、“痛改前非”的故事,这又是否代表另一种高级的智能机制,帮助人类个体实现自我革新和净化?
你说呢……
项目主页:https://llm-brain-rot.github.io/论文:https://arxiv.org/pdf/2510.13928
参考链接:
[1]https://x.com/alex_prompter/status/1980224548550369376
[2]https://x.com/VitalikButerin/status/1959189887099588700
本文由主机测评网于2026-01-24发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260120162.html