当前位置:首页 > 科技资讯 > 正文

Meta AI新突破:行为复用机制让大模型推理更高效更精简

Meta在人工智能推理领域再次实现重大突破。

一项最新研究论文显示,Meta的研究团队开发出一种创新方法,使大型语言模型能够以更少的认知步骤进行更清晰的推理。

这篇论文标题为《Metacognitive Reuse: Turning Recurring LLM Reasoning Into Concise Behaviors》,于2025年9月17日发表,由Meta团队与普林斯顿大学、蒙特利尔大学合作完成。

Meta AI新突破:行为复用机制让大模型推理更高效更精简 AI研究 行为复用机制 推理优化 token效率提升 第1张

作者包括Aniket Didolkar、Nicolas Ballas、Anirudh Goyal和Sanjeev Arora

论文访问地址: https://arxiv.org/abs/2509.13237

该论文提出一种新机制,允许大语言模型(LLM)在每次推理后,自动总结重复使用的步骤,并将它们存储为简洁指令,称为“行为(Behavior)”。

当模型再次遇到相似问题时,它无需重新推理,而是直接调用这些“行为”来快速解决问题。

实际效果令人惊叹。

在数学推理任务测试中,Meta团队验证:模型在保持准确率不变的情况下,推理所需的token数量最高减少46%

这意味着,对于同一道题目,模型只需一半的思考量,就能得出同样准确的答案。

研究团队表示,这使模型“学会记忆自身思考方式”,相当于为LLM配备了“思维缓存”功能。

思维手册化:AI的“行为记忆艺术”

Meta AI新突破:行为复用机制让大模型推理更高效更精简 AI研究 行为复用机制 推理优化 token效率提升 第2张

“行为复用”(Metacognitive Reuse)框架示意图

Meta将这一机制命名为“行为手册(Behavior Handbook)”。

当模型解决一个问题时,它会完整记录自己的推理流程。

随后进行回顾反思,识别哪些步骤是常用模式,例如“应用容斥原理”“有理化分母表达式”或“先化简再代入”。

模型会为这些模式命名并编写描述,形成一条条“行为指令”。

这些指令被收集在一本持续扩展的手册中。

论文中将此机制描述为“元认知路径(Metacognitive Pathway)”,即模型在“对自身思考进行再思考”。

举例来说:当模型处理一道掷骰子概率问题时,它可能调用behavior_total_outcomes(计算总可能结果数)和behavior_inclusion_exclusion(使用容斥原理避免重复计算)。

调用后即可直接输出答案,无需冗余解释。

因此,每个行为都是一段压缩的思维过程,将原本需要数十步的推导,浓缩为一句话指令。

论文展示了多项实验结果。在MATH数据集上,行为调节推理(Behavior-conditioned Inference)使模型的推理token平均减少近一半;在AIME–24/25高难度数学题上,模型在低计算预算(2048–8192 tokens)下仍维持稳定的精度。

自我复盘,实现人类式“思考节省”

长期以来,大模型被批评为“冗长啰嗦”:每次解题都需要展开冗长的思维链(chain-of-thought),重新铺陈所有中间步骤。

这不仅浪费token资源,还降低了模型吞吐效率。Meta的方法让模型自主反思、提炼和精简。

Meta AI新突破:行为复用机制让大模型推理更高效更精简 AI研究 行为复用机制 推理优化 token效率提升 第3张

行为提取提示设计流程

论文设计了三种应用模式:

第一种是“行为调节推理”(Behavior-conditioned Inference)。模型从手册中检索相关行为提示,并基于它们解决问题。结果:token使用量减少46%,准确率不仅未降反而略有提升。

第二种是“行为引导自我改进”(Behavior-guided Self-improvement)。模型利用自己总结的行为来指导后续推理过程。结果:正确率比常规“自我批改”方法提高10%。

第三种是“行为调节监督微调”(Behavior-conditioned SFT)。Meta研究者使用带有行为提示的推理数据来训练学生模型。结果:学生模型学会更高效的推理,比传统微调版本更智能、更节省资源。

实验中,Meta采用R1-Llama-70B作为“元认知策略师”,并测试了Qwen3-32B、Llama-3.1-8B等多个学生模型

几乎所有模型都观察到相同趋势:推理token用量显著下降,性能保持稳定。

研究者将这一现象比喻为:“模型从缓慢推导转向快速反应。”它不再每次重复编写思维过程,而是像人类一样,学会了依靠经验来节省思考。