是什么原因,促使一位AI自动化架构师发出“微调已死”的惊叹?
最近,斯坦福大学、SambaNova和UC伯克利的研究团队发布了一篇论文,在业界激起热烈讨论。他们推出了一项名为Agentic Context Engineering(智能体/主动式上下文工程)的创新技术,使得语言模型不需要经过微调就能达成自我提升的目标!
- 论文标题:Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models
- 论文地址:https://www.arxiv.org/abs/2510.04618
当前基于大型语言模型(LLM)的AI系统(例如LLM智能体与复合式AI系统)越来越依赖上下文自适应(context adaptation)。
具体而言,上下文自适应是在模型训练完成后,通过在输入中引入更清晰的指令、结构化的推理步骤或领域特定的输入格式,从而增强模型性能。显然,这与直接调整模型参数的微调方法存在显著差异。
我们知道,上下文构成了众多AI系统组件的基础,包括:引导下游任务的系统提示词、承载历史事实与经验的记忆机制,以及用于减少幻觉、补充知识的事实证据。
与参数更新相比,通过上下文进行适应具有若干核心优势:上下文对用户与开发者来说更易于理解;能够在运行时快速整合新知识;并且可以在复合系统的多个模型或模块之间共享。同时,长上下文语言模型的进展以及高效推理机制(如KV缓存复用)也使得基于上下文的方法更加可行。因此,上下文自适应正逐渐成为构建高性能、可扩展且具备自我改进能力的AI系统的关键范式。
然而,现有上下文自适应方法仍存在两大局限。
其一是「简约偏置」(brevity bias):许多提示词优化器倾向于追求简洁、通用的指令,而忽略了知识的充分积累。例如,GEPA将简短视为优点,但这种抽象化可能遗漏实践中至关重要的领域启发式规则、工具使用指南或常见错误模式。此类优化目标虽能在部分指标上有效,却常常无法捕捉智能体或知识密集型应用所需的细节策略。
其二是「上下文塌缩」(context collapse):依赖LLM对整体提示进行重写的方式,往往会随时间推移退化为更短、更模糊的摘要,从而导致性能下降(见图2)。在诸如交互式智能体、领域特定编程、以及金融或法律分析等任务中,系统性能依赖于保留细致的、任务相关的知识,而非将其压缩。
随着智能体与知识密集型推理对可靠性的要求不断提高,近期研究逐渐转向构建“信息饱和”的上下文,也就是借助长上下文LLM的进展来容纳更多潜在有用信息。
但这个斯坦福大学、SambaNova、UC伯克利联合团队认为:上下文不应是简短的摘要,而应成为全面、动态演化的“作战手册(playbooks)”——内容详细、包容、富含领域洞见。与人类不同,LLM在提供长而细致的上下文时表现更好,并能自主提炼关键信息。因此,与其压缩领域启发与策略,不如将其保留,让模型在推理时自行决定哪些信息最为重要。
基于这一见解,主动式上下文工程(ACE)应运而生。
该团队提出的ACE(Agentic Context Engineering)框架能够实现可扩展且高效的上下文自适应,并且适用于离线(如系统提示优化)与在线(如测试时记忆自适应)场景。
与以往将知识蒸馏为简短摘要或静态指令的方法不同,ACE是将上下文视为不断演化的作战手册,能够持续积累、提炼与组织策略。
基于Dynamic Cheatsheet(参阅arXiv:2504.07952)的智能体架构,ACE引入三种协作角色:
这一设计模仿了人类的学习方式,即“实验–反思–整合”,同时可避免让单一模型承担所有职能所导致的瓶颈。
为应对前文提到的简约偏置与上下文塌缩问题,ACE引入了三项关键创新:
在工作流程上,生成器首先会针对新任务生成推理轨迹,揭示出有效策略与常见陷阱;反思器对这些轨迹进行评析,提炼经验并可多轮迭代优化;整编器再将这些经验整合为紧凑的增量条目(delta entries),并通过轻量的、非LLM的逻辑机制合并至现有上下文中。
由于更新项是局部化的,多个增量可并行合并,从而实现批量适应与扩展。ACE还支持多轮自适应,使相同任务可被多次重访以持续强化上下文。
ACE的核心设计理念是:将上下文表示为结构化的条目集合(bullets),而非单一的整体提示词。
每个条目包含两部分:
在解决新问题时,生成器会标记哪些条目起到了帮助或误导作用,从而为反思器提供改进依据。
这种条目化设计带来了三大特性:
ACE不会重写整个上下文,而是生成紧凑的增量上下文(delta contexts):由反思器提炼、整编器整合的一小组候选条目。
这种方式既避免了整体重写的高计算成本与延迟,又能保持旧知识并持续吸收新见解。随着上下文的增长,该机制为长周期或高知识密度的任务提供了必要的可扩展性。
在持续增长的基础上,ACE通过定期或延迟蒸馏来确保上下文保持紧凑与相关性。
在Grow-and-Refine过程中,新条目会被追加到上下文中,而已有条目则通过元数据更新(如计数器递增)进行原地修订。
去重步骤则通过语义嵌入比较条目相似度来消除冗余。
该过程可在每次增量更新后主动执行,也可在上下文窗口超限时被动触发,具体取决于延迟与精度要求。
增量更新与Grow-and-Refine机制共同维持了上下文的动态可扩展性与高相关性。
该团队进行了实验,对新提出的方法进行了验证。
具体来说,他们在两类任务上进行了实验:智能体类任务与领域特定任务。
而作为对比的基线方法则包括以下几种:
相比之下,ACE在相同基模型与运行条件下,通过其“生成–反思–整合”的主动上下文工程框架,实现了更高的准确度、更快的适应速度以及更低的计算成本。
实验下来,ACE表现优异,下图给出了其整体表现——毫无疑问地优势明显。
首先,ACE确实能实现高性能、自我改进的智能体。
通过动态优化输入上下文,ACE实现了智能体的自我改进。在AppWorld基准上,ACE在无需标注数据的情况下,仅凭执行反馈就能提升性能高达17.1%,使开源小模型的表现接近最强商用系统。
下图展示了在AppWorld基准上,ACE生成的上下文示例(部分)。可以看到,ACE生成的上下文包含了详细的、领域特定的洞见,以及可直接使用的工具与代码,构成了一个面向大型语言模型应用的完整“作战手册”。
同时,ACE也能大幅提升在领域特定任务上的表现:在复杂的金融推理任务中,ACE通过构建含丰富领域知识的“作战手册”,平均性能提升8.6%。
该团队也通过消融实验验证了其新设计的有效性,结果表明:反思器与多轮蒸馏等组件对性能提升至关重要。
最后,该团队也分析了ACE的成本与延迟,发现这两个指标都有显著下降:ACE通过增量更新与轻量化合并机制,使适应延迟平均降低86.9%,并减少了生成消耗。
至于ACE究竟能否做到让“微调已死”,还需要读者您自己判断,毕竟该研究也在网上遭到了一些批评。
该团队总结道:“长上下文 ≠ 更高Serving成本。”尽管ACE生成的上下文比GEPA等方法更长,但并不会导致推理成本或显存使用线性增加。
现代serving基础设施已通过KV缓存复用、压缩与卸载等机制,对长上下文负载进行了优化,使得常用的上下文片段可被缓存,避免重复计算。随着系统层优化的持续进步,长上下文方法(如ACE)的实际部署成本将进一步下降。
同时,该团队还分析了这项研究对在线与持续学习带来的启示。
在线学习与持续学习是应对分布漂移(distribution shifts)与训练数据有限性的重要方向。ACE为传统模型微调提供了一种灵活且高效的替代方案:更新上下文通常比更新模型参数更低成本,同时具备可解释性,还可能实现选择性遗忘(selective unlearning)——这可用于隐私保护、合规以及剔除错误或过时信息。
该团队认为,ACE未来有望成为推动持续学习与负责任学习的核心机制之一。
你觉得这项技术的潜力如何?
本文由主机测评网于2026-01-07发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260115621.html