尽管苹果在人工智能领域常被认为进展缓慢,但其最新研究直指Transformer架构的核心挑战。(doge)
「Mamba+工具」的组合,在Agent应用场景中展现出更强竞争力!
在最新论文《To Infinity and Beyond》中,研究团队观察到:
在长周期、多交互的Agent式任务中,基于SSM架构(状态空间模型)的模型,如Mamba,在效率和泛化能力上,表现出超越Transformer的潜力。
Mamba的第一作者对此评论道:
这一超越Transformer的表现如何解释?
先分析Transformer的“高成本问题”。
Transformer依赖自注意力机制,能同时关注输入序列中所有词汇间的关联,例如在阅读时快速链接首尾关键点。
但这种能力需要高昂计算代价,随着输入序列增长,计算量呈平方级上升。
例如,处理1000个词时,需计算1000×1000=100万次词对关系;
若处理包含数万词的长文档,计算量可达亿级,对普通GPU构成重负。
计算成本过高引发连锁反应:
相比之下,Mamba采用更轻量设计。
作为状态空间模型(SSM),Mamba不依赖全局注意力,而是通过持续更新的内部状态解析输入。
类似人类记流水账,只关注近期进展,不回溯旧账。
这种机制带来三大优势:
例如处理1000个词仅需对应量级计算,远低于Transformer;
能边接收输入边计算,无需等待完整序列;
不随序列长度显著增加,效率突出。
但Mamba有局限:内部状态存储有限,处理超长序列时早期信息易被覆盖,导致记忆前文能力弱。
针对此,苹果团队提出新方案——通过引入外部工具扩展模型信息处理能力。
例如数学计算中用指针工具记录数字和进位;代码修复中用文件查看工具反复读代码、用运行工具测报错……
这些工具在任务中提供辅助,相当于为模型添加可动态调用的外部存储和交互接口。
引入工具后,Mamba性能显著提升:
在多位数加法中,配备指针工具的Mamba展现良好泛化,经5位数训练后能稳定处理1000位数,准确率近100%,而Transformer处理20位数时误差明显;
在代码调试中,让Mamba模拟交互式调试流程(查看文件、局部修改、执行验证迭代),面对高复杂度代码库,其正确率高于Transformer;
在逻辑推理及汉诺塔等需分步规划任务中,结合工具的Mamba能应对更复杂场景,Transformer则要么慢速,要么卡顿……
可见,Transformer智能但缓慢,做事追求一步到位,遇需反复调整的Agent任务时显得昂贵笨重;
Mamba反应快但记忆短,通过外置大脑补足记忆后,效率大幅提升。
因此,「Mamba+工具」组合可能在Agent场景中取代Transformer的领先地位。
https://arxiv.org/pdf/2510.14826
https://x.com/_albertgu/status/1980287154883358864
本文由主机测评网于2026-01-12发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260116988.html