AI在线 AI在线

苹果AI选Mamba:Agent任务比Transformer更好

闻乐 发自 凹非寺. 量子位 | 公众号 QbitAI都说苹果AI慢半拍,没想到新研究直接在Transformer头上动土。 「Mamba 工具」,在Agent场景更能打!

闻乐 发自 凹非寺

量子位 | 公众号 QbitAI

都说苹果AI慢半拍,没想到新研究直接在Transformer头上动土。(doge)

「Mamba+工具」,在Agent场景更能打!

苹果AI选Mamba:Agent任务比Transformer更好

在最新论文《To Infinity and Beyond》中,研究团队发现:

在长任务、多交互的Agent式任务中,基于SSM架构(状态空间模型)的模型,比如Mamba,在效率与泛化能力上,展现出超越Transformer的潜力。

苹果AI选Mamba:Agent任务比Transformer更好

Mamba一作表示:

苹果AI选Mamba:Agent任务比Transformer更好 苹果AI选Mamba:Agent任务比Transformer更好

超越Transformer,怎么说?

先说说Transformer的“富贵病”。

Transformer确实很聪明,靠自注意力机制能够同时关注输入序列中所有词语之间的关联,比如阅读文章时可以快速建立首尾关键信息的联系。

但这种能力的实现需要较高的计算成本,随着输入序列长度的增加,其计算量会呈平方级增长。

例如,输入1000个词时,需要处理1000×1000=100万次词对关系;

要是处理有上万个词的长文档,计算量会达到亿级,这对普通GPU来说是不小的负担。

苹果AI选Mamba:Agent任务比Transformer更好

而这种计算成本过高的问题还会引发连锁反应:

  • 首先是处理延迟显著增加。在长序列任务中,模型的响应速度会大幅下降;
  • 其次,在Agent类任务中表现不佳。Agent任务通常需要动态决策与迭代优化的能力,而Transformer在每一步操作中都需重新计算全局注意力,这就会导致整体效率偏低,难以满足此类任务对实时性和灵活性的需求。

相比之下,Mamba则采用了更为轻量化的设计思路。

作为状态空间模型(SSM)的一种,Mamba不依赖全局注意力机制,而是通过持续更新的内部状态来理解输入信息

有点像人写流水账,只记最近进展,不翻旧账。

这种机制带来了三项显著优势:

  • 计算量随序列长度呈线性增长
  • 例如处理1000个词仅需对应数量级的计算,远低于Transformer的消耗;
  • 支持流式处理
  • 能够边接收输入边进行计算,无需等待完整序列加载完毕;
  • 内存占用保持稳定
  • 不会随序列长度增加而显著上升,在效率方面表现突出。
苹果AI选Mamba:Agent任务比Transformer更好

不过,Mamba也有个明显局限:内部状态的存储容量有限,在处理超长序列任务时,早期信息容易被后续输入覆盖,导致模型对前文关键信息的保留能力较弱。

针对这一问题,苹果团队提出了新方案——通过引入外部工具扩展模型的信息处理能力

比如算数学题时用指针工具记数字、存进位;修代码时用文件查看工具反复读代码、用运行工具测报错……

这些工具可以在任务执行过程中提供辅助,相当给模型提供了可动态调用的外部存储和交互接口。

苹果AI选Mamba:Agent任务比Transformer更好

这样做的结果就是,引入工具后Mamba的性能得到显著提升:

在多位数加法任务中,配备指针工具的Mamba展现出良好的泛化能力,经过5位数加法训练后,能够稳定处理1000位数的计算,准确率接近100%,而Transformer在处理20位数时已出现明显误差;

在代码调试任务中,让Mamba模拟交互式调试流程(查看文件、局部修改、执行验证的迭代方式),面对复杂度高于训练集的代码库,其正确率显著高于Transformer;

在逻辑推理及汉诺塔等需要分步规划的任务中,结合工具的Mamba能够应对更复杂的问题场景,Transformer则要么算得慢,要么直接卡壳……

苹果AI选Mamba:Agent任务比Transformer更好

可以看出,Transformer聪明但慢,做事情讲究从头到尾一步到位,遇上需要反复调整的Agent式任务,就显得又贵又笨重;

Mamba反应快但记性差,但装上外置大脑后补足记忆短板后,效率嘎嘎提升。

这么一看,「Mamba+工具」的组合可能真要在Agent场景下抢Transformer的风头了。

论文地址:https://arxiv.org/pdf/2510.14826 参考链接:https://x.com/_albertgu/status/1980287154883358864

— 完 —

相关资讯

在12个视频理解任务中,Mamba先打败了Transformer

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]。探索视频理解的新境界,Mamba 模型引领计算机视觉研究新潮流!传统架构的局限已被打破,状态空间模型 Mamba 以其在长序列处理上的独特优势,为视频理解领域带来了革命性的变革。来自南京
4/30/2024 3:21:00 PM
机器之心

非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1

Mamba 架构的大模型又一次向 Transformer 发起了挑战。Mamba 架构模型这次终于要「站」起来了?自 2023 年 12 月首次推出以来,Mamba 便成为了 Transformer 的强有力竞争对手。此后,采用 Mamba 架构的模型不断出现,比如 Mistral 发布的首个基于 Mamba 架构的开源大模型 Codestral 7B。今天,阿布扎比技术创新研究所(TII)发布了一个新的开源 Mamba 模型 ——Falcon Mamba 7B。先来总结一波 Falcon Mamba 7B 的亮点
8/13/2024 2:51:00 PM
机器之心

腾讯混元、英伟达都发混合架构模型,Mamba-Transformer要崛起吗?

在过去的一两年中,Transformer 架构不断面临来自新兴架构的挑战。 在众多非 Transformer 架构中,Mamba 无疑是声量较大且后续发展较好的一个。 然而,与最初发布时那种仿佛「水火不容」的局面不同,最近一段时间,这两种架构似乎正在走向融合。
3/24/2025 1:16:00 PM
机器之心
  • 1