当前位置:首页 > 科技资讯 > 正文

ACE框架:Agentic Context Engineering 驱动AI自我进化与改进

近期,斯坦福大学与SambaNova Systems联合发表了一篇学术论文,标题为《Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models》。

该研究提出了一个名为ACE(Agentic Context Engineering)的创新框架,使人工智能系统能够在无需重新训练模型权重的情况下,实现持续的自我改进。

ACE框架:Agentic Context Engineering 驱动AI自我进化与改进 ACE框架 上下文工程 自我改进 知识剧本 第1张

论文的访问链接为: http://arxiv.org/abs/2510.04618v1

研究核心指出,大型语言模型的能力并非仅仅由其参数规模决定,更关键的因素在于上下文的质量。这意味着,谁能构建出最优化的上下文环境,谁就能显著提升模型的智能水平。

ACE框架的核心理念是让模型摆脱对“静态提示(prompt)”的依赖,转而采用一种动态、结构化且可不断进化的“知识剧本”(playbook)

这些剧本详细记录了模型在执行任务过程中所积累的策略、规则、模板及修正规则。每一次成功或失败的经验,都会被转化为一条“增量更新”(delta)。

与传统“重写提示”的方法不同,ACE通过小步、安全的更新机制持续优化剧本,避免了一次性全盘推翻的风险。

这种机制使得AI能够在实际运行中实时学习、记忆并改进,无需进行任何参数微调。

ACE框架:Agentic Context Engineering 驱动AI自我进化与改进 ACE框架 上下文工程 自我改进 知识剧本 第2张

ACE框架示意图

研究人员强调,这一机制能有效规避两种关键问题:一是简化偏差(brevity bias),即在追求简洁过程中丢失重要细节;二是上下文崩塌(context collapse),即因重写而导致的知识损坏。

ACE框架:Agentic Context Engineering 驱动AI自我进化与改进 ACE框架 上下文工程 自我改进 知识剧本 第3张

论文中举例说明,在实验中,一个AI代理积累了1.8万token的上下文,表现优异。但当模型尝试对其进行“总结压缩”时,剧本被缩减至仅122个token,导致性能急剧下降至57.1%

研究者明确指出:“模型擅长利用知识,但不擅长组织知识。一次不当的重写,就可能导致所有积累付诸东流。”

论文认为ACE框架成功解决了这种“自毁式学习”的结构性风险。

ACE框架:Agentic Context Engineering 驱动AI自我进化与改进 ACE框架 上下文工程 自我改进 知识剧本 第4张

图示备注:ACE框架在三大类任务(包括智能体操作、领域知识及数值推理)中均显著优于其他方法,准确率提升最为突出。

三角色协同工作:生成、反思与策展

ACE体系基于一个极简哲学:不应重写知识,而应高效管理知识。

整个系统被分解为三个相互补充的角色。

首要是生成器(Generator)。它负责执行具体任务,与环境互动,生成推理过程、代码或操作序列。

其次是反思器(Reflector)。它分析生成器的行动轨迹,识别成功与失败的根本原因,并提取“可操作的教训”。这些反馈信号可能来源于代码错误、执行结果或外部标签。

最后是策展器(Curator)。它将上述经验精炼为结构化条目(delta context),并通过确定性规则(而非语言模型决策)整合到主剧本中。

这种三层循环——行动、反思、整合——构成了ACE的持续学习闭环。

每次更新仅影响局部条目,不触及整体文本结构。这种局部增量机制,确保了知识库能够持续扩展而避免坍塌。

剧本本身采用项目化结构设计:包含策略规则、API调用模板、调试经验、常见错误解决方案等。每个条目都附带使用计数和正负反馈元数据

反思器会依据这些记录评估哪些规则有效、哪些无效。策展器随后进行相应修改或删除。

论文表示,这种方式使得AI的知识“像Git仓库一样逐步演化”,能够安全地增长、精细地修剪、透明地追溯

研究者强调,ACE的复杂性并非负担,而是一种结构化的安全机制,以微小的系统开销换取知识的稳定积累。

小模型实现“越级挑战”:DeepSeek超越GPT-4.1

在复杂的AppWorld代理任务中,ACE框架带来了平均+10.6%的性能提升,并将适应延迟降低了86.9%。

研究团队特别指出,这一提升并非依赖于更庞大的模型,而是源于更优的上下文管理策略。

一个典型案例是:DeepSeek V3.1的参数量低于GPT-4.1。但在ACE框架的支持下,它在AppWorld基准测试中,竟能与GPT-4.1代理(IBM CUGA)表现相当,甚至在更复杂的测试集上实现反超

研究者认为,这一结果证实了“上下文工程”已成为新的计算资源均衡器

更为重要的是,ACE展现出惊人的效率优势。在多轮任务学习中,其更新延迟减少了82%至91%token成本下降了83.6%

ACE框架:Agentic Context Engineering 驱动AI自我进化与改进 ACE框架 上下文工程 自我改进 知识剧本 第5张

图示备注:在金融分析任务中,ACE框架显著提升了模型表现(平均提升约8.6%),即使在没有真实标签的情况下也能保持稳定性能。

论文指出,这使得“在线持续学习”从理论概念转化为现实应用。AI不再需要频繁的微调,而是能够在运行过程中自我优化。

同时,ACE的结构化剧本使学习过程变得可解释、可审计、可撤回

如果某条规则被发现已过时、存在偏见或违反规定,系统可以精准删除对应条目,实现“选择性遗忘”。