当前位置:首页 > 科技资讯 > 正文

AI与人脑的神奇趋同:深度解析大模型自发演化的“类脑协同核心”

尽管生物智能与人工智能在物理载体和演化逻辑上大相径庭,但它们是否在底层计算原理上存在某种“殊途同归”?

近日,来自帝国理工学院与华为诺亚方舟实验室等顶尖机构的研究团队发表了一项突破性成果。该研究揭示,大型语言模型(LLM)在训练过程中,会自发涌现出一种被称为协同核心(Synergistic Core)的结构特征,其组织模式与生物大脑的高级认知区域高度相似。

AI与人脑的神奇趋同:深度解析大模型自发演化的“类脑协同核心” 协同核心  部分信息分解 类脑智能 LLM演化路径 涌现性 第1张

论文标题:A Brain-like Synergistic Core in LLMs Drives Behaviour and Learning

论文地址:https://arxiv.org/abs/2601.06851

AI与人脑的神奇趋同:深度解析大模型自发演化的“类脑协同核心” 协同核心  部分信息分解 类脑智能 LLM演化路径 涌现性 第2张

研究团队创新性地采用部分信息分解(PID)框架,对 Gemma、Llama、Qwen 及 DeepSeek 等主流模型进行了“神经解剖式”的深度挖掘。

分析结果显示,这些模型的中层结构展现出极强的协同处理能力,而底层和顶层则表现出明显的冗余特性。

协同与冗余:LLM 的“洋葱式”架构

研究者将 LLM 视为复杂的分布式信息系统,旨在量化其内部组件交互的本质。为了验证结论的普适性,实验涵盖了 Gemma 3、Llama 3、Qwen 3 8B 和 DeepSeek V2 Lite Chat 等不同规模和架构的模型。

量化实验设计

实验过程中,模型需处理包括语法校验、逻辑推理及常识问答在内的 6 类典型认知任务。在生成回答的过程中,研究人员同步采集了模型每一层中所有注意力头(Attention Heads)或专家模块(MoE Experts)的激活状态数据。

通过计算输出向量的 L2 范数,研究团队获取了各单元的时间序列激活强度,并将其代入整合信息分解(Integrated Information Decomposition)框架。

该框架能精确区分组件间的“持续性协同”与“持续性冗余”。利用协同-冗余秩(Synergy-Redundancy Rank)指标,研究者成功识别出模型在处理信息时,究竟是在进行简单的信号叠加,还是在进行跨单元的深度整合。

空间分布的“倒 U 型”规律

实验发现,无论模型架构如何,其信息处理模式都遵循一致的空间分布规律,在层深分布图中呈现显著的“倒 U 型”特征:

AI与人脑的神奇趋同:深度解析大模型自发演化的“类脑协同核心” 协同核心  部分信息分解 类脑智能 LLM演化路径 涌现性 第3张

冗余外周(Redundant Periphery):模型两端(输入层与输出层)呈现高冗余、低协同特征。早期层主要负责基础特征提取(如词元解析),末期层则聚焦于 Token 预测与格式化输出。

协同核心(Synergistic Core):模型中间层展现出极高的协同秩,形成了核心信息处理枢纽。以 Gemma 3 为例,中间层注意力头之间的密集协同交互,正是模型执行复杂语义集成与抽象逻辑推理的关键区域。

架构无关的计算必然性

这种结构的出现并不依赖于特定的 Transformer 实现。即使在 DeepSeek 的专家模块(MoE)架构中,依然存在同样的协同核心现象。这表明,协同处理或许是实现高等智能的通用计算路径

这种模式与人类大脑的生理结构形成了惊人的映射:人脑的感官输入和运动输出区具有高冗余性,而负责高级认知任务的联合皮层则构成了高协同的“全局工作空间”。

能力源泉:学习演化而非原生预设

研究进一步探究了这种结构的来源。通过对 Pythia 模型训练全过程的监测,研究者发现这种“倒 U 型”分布并非天生。在随机初始化的权重中,这种结构并不存在,它是在漫长的预训练过程中逐渐“长”出来的。

AI与人脑的神奇趋同:深度解析大模型自发演化的“类脑协同核心” 协同核心  部分信息分解 类脑智能 LLM演化路径 涌现性 第4张

这证明,协同核心的形成是模型获得高阶智能的重要里程碑。这种高全局效率的拓扑结构,是信息快速集成的必要条件。

功能实证:协同核心主导模型行为

为了验证该核心的实际作用,研究团队进行了严格的干预测试:

消融实验:移除高协同节点会导致模型性能“雪崩式”下降,其破坏性远高于随机消融或移除冗余节点。这确证了协同核心是智能的动力源泉。

AI与人脑的神奇趋同:深度解析大模型自发演化的“类脑协同核心” 协同核心  部分信息分解 类脑智能 LLM演化路径 涌现性 第5张

微调实验:在强化学习微调中,仅针对协同核心进行的参数更新能带来最显著的性能增益。这也解释了为何强化学习能更好地提升模型的通用能力,而不仅是死记硬背。

AI与人脑的神奇趋同:深度解析大模型自发演化的“类脑协同核心” 协同核心  部分信息分解 类脑智能 LLM演化路径 涌现性 第6张

总结与展望

这项研究为大模型的可解释性提供了全新的理论视角。它告诉我们,理解 AI 不应仅关注微观的电路连接,更应关注宏观的信息论动态。

在工程层面,识别协同核心有助于开发更精准的模型压缩与加速方案;在科学层面,这为通用智能(AGI)的演化提供了统一的解释框架。硅基与碳基智能在演化高峰处的相遇,预示着我们正触及智能本质的共同真理。