AI在线 AI在线

字节Seed开源长线记忆多模态Agent,像人一样能听会看

不圆 发自 凹非寺. 量子位 | 公众号 QbitAI字节Seed发布全新多模态智能体框架——M3-Agent。 像人类一样能听会看、具备长期记忆,并且免费开源!

不圆 发自 凹非寺

量子位 | 公众号 QbitAI

字节Seed发布全新多模态智能体框架——M3-Agent

像人类一样能听会看、具备长期记忆,并且免费开源!?

M3-Agent的亮点在于,它不仅能够处理实时的视觉和听觉输入,以构建和更新其长期记忆,还发展了语义记忆,能够随着时间的推移积累知识。

此外,为了评估多模态智能体中的记忆有效性和基于记忆的推理,来自字节Seed、浙江大学和上海交通大学的研究团队还开发了一个新的长视频问答基准:M3-Bench,同样开源。

字节Seed开源长线记忆多模态Agent,像人一样能听会看

实验表明,通过强化学习训练的M3-Agent在多个基准测试中表现均显著优于基线模型(包括基于商业模型如Gemini-1.5-Pro和GPT-4o的智能体)。

字节Seed开源长线记忆多模态Agent,像人一样能听会看

一位热心网友总结了这篇论文的两个核心洞察:

以实体为中心的多模态记忆至关重要。M3-Agent研究表明,通过在人脸、语音和文本中建立具有持久ID的长期结构化记忆,能够显著提升长视频内容的推理能力。

检索推理优于单次RAG。训练一个RL策略来决定何时以及如何查询记忆会产生比盲目检索更强的结果。开发代理的开发者应该将检索视为一个迭代的推理循环,而不是一个一次性步骤。

字节Seed开源长线记忆多模态Agent,像人一样能听会看

详细内容及代码可见文末链接。

字节Seed开源长线记忆多模态Agent,像人一样能听会看

对于多模态智能体而言,达到像人类一样的智能水平根本上依赖于三种能力:

  • (1)通过多模态传感器持续感知世界;
  • (2)将经验存储在长期记忆中,并逐步构建关于环境的知识;
  • (3)基于积累的记忆进行推理,以指导其行动。

为实现这些目标,字节Seed团队提出了M3-Agent,一个配备长期记忆的新型多模态代理框架。

它通过两个并行过程运作:记忆过程控制过程

记忆过程持续感知实时多模态输入以构建和更新长期记忆;控制过程则解释外部指令,对存储的记忆进行推理,并执行相应的任务。

字节Seed开源长线记忆多模态Agent,像人一样能听会看

在记忆过程中,M3-Agent会实时处理输入的视频流,通过生成两种记忆类型来同时捕获细粒度细节和高级抽象信息,类似于人类认知系统:

  • 事件记忆
  • 记录视频中观察到的具体事件。例如,“爱丽丝拿起咖啡说,‘早上没有这个我无法离开’”,以及“爱丽丝将空瓶子扔进绿色的垃圾桶”。
  • 语义记忆
  • 从片段中推导出一般知识。例如,“爱丽丝喜欢早上喝咖啡”和“绿色的垃圾桶用于回收”。

生成的记忆随后会被存入长期记忆库中,该库支持人脸、语音和文本知识等多模态信息存储。

此外,记忆以实体为中心的结构进行组织,例如与同一个人相关的信息(例如他们的脸、声音和相关知识)会以图的格式连接起来,随着智能体不断提取和整合语义记忆,这些关联关系会逐步建立完善。

在控制过程中,M3-Agent利用其长期记忆进行推理并完成任务。

M3-Agent并非使用单轮检索增强生成(RAG)将记忆加载到上下文中,而是采用强化学习来实现多轮推理和迭代记忆检索,能自主从不同维度(如事件或角色)的长期记忆中检索相关信息,从而提高任务成功率。

字节Seed开源长线记忆多模态Agent,像人一样能听会看 字节Seed开源长线记忆多模态Agent,像人一样能听会看

对于多模态智能体而言,记忆形成与在线视频理解密切相关,而在线视频理解是一项需要实时处理视频流并根据过去的观察做出决策的、具有挑战性的任务。

传统的长视频理解方法(例如在多模态模型中扩展上下文窗口或压缩视觉标记以增加时间覆盖范围)对于无限长的视频流来说,并不具备有效的扩展性。

为了提高可扩展性,基于记忆的方法引入了记忆模块来存储编码的视觉特征以供未来检索。这些架构适合在线视频处理,但它们面临一个基本限制:难以保持长期一致性。

由于它们只存储视觉特征,这些方法难以在长时间内保持对人类身份或演变事件等实体的连贯跟踪。

随着大型多模态和语言模型的快速发展,苏格拉底模型框架已成为已成为在线视频理解领域的一种颇具前景的研究方向。

该方法通过利用多模态模型生成视频描述作为基于语言的记忆,有效提升了系统可扩展性;但它在保持复杂、演变视频内容的长期一致性方面仍然面临挑战。

为此,研究团队提出了M3-Bench,一个用于评估多模态智能体长期记忆推理能力的 LVQA 数据集。

M3-Bench中的每个实例包含一个模拟智能体感知输入的长视频,以及一系列开放式问答对。

该数据集分为两个子集:

  • M3-Bench-robot,包含 100 个从机器人第一人称视角录制的真实世界视频;
  • M3-Bench-web,包含920个网络来源的视频,涵盖更广泛的内容和场景。

为了全面评估智能体回忆过去观察结果和基于记忆进行推理的能力,研究团队整理了五种不同类型的问答题,如下图所示。

字节Seed开源长线记忆多模态Agent,像人一样能听会看

总体而言,M3-Bench 的特点是:

  • 长时长的真实世界视频,涵盖了与多模态智能体部署相关的多样化现实场景;
  • 具有挑战性的问题,这些问题超越了浅层感知理解,需要基于长期上下文的复杂推理。
字节Seed开源长线记忆多模态Agent,像人一样能听会看

上图为M3-Bench基准的统计概述,每个问题可能对应多种问题类型。

字节Seed开源长线记忆多模态Agent,像人一样能听会看

如上表所示,M3-Agent在M3-Bench-robot、M3-Bench-web和VideoMME-long上均优于所有基线模型

具体而言,在M3-Bench-robot 上,M3-Agent比最强的基线模型MA-LLM提高了6.3%的准确率;在 M3-Bench-web和VideoMME-long上,它分别比最强的基线模型Gemini-GPT4o-Hybrid高出了7.7%和5.3%。

研究团队在M3-Bench中针对不同问题类型,将M3-Agent与所有基线进行了进一步评估。结果显示,M3-Agent 在人类理解和跨模态推理方面表现出色。

具体来说,与M3-Bench-robot上表现最佳的基线 MA-LMM 相比,M3-Agent 在人类理解和跨模态推理方面分别提升了4.2%和 8.5%;

在M3-Bench-web上,M3-Agent超越了顶尖基线Gemini-GPT4o-Hybrid,在相应类别中分别取得了15.5%和6.7%的提升。

这些结果表明,M3-Agent在保持角色一致性、深化人类理解以及有效整合多模态信息方面具有卓越能力。

参考链接:https://x.com/omarsar0/status/1956773240623235076 论文:https://www.arxiv.org/abs/2508.09736 代码:https://github.com/bytedance-seed/m3-agent

相关资讯

消息称字节 Seed 多个机器人相关业务招一号位,成立独立公司

据《新智核》今日爆料,字节旗下 Seed 团队将招募多个机器人相关业务的一号位,包括机器人产品负责人、机器人工程技术负责人,以及具身智能大模型负责人。这一系列动作表明,Seed 在机器人及具身智能领域加速布局的决心。
6/27/2025 6:32:38 PM
汪淼

那天,AI大模型想起了,被「失忆」所束缚的枷锁

记忆,你有我有,LLM 不一定有,但它们正在有。 前些天,谷歌宣布 Gemini 具备了记忆能力。 此前,它已经凭借长达 100 万 token 甚至更高的上下文长度,在「短期记忆」上有不错表现 —— 能够在一次会话中保留大量信息。
8/31/2025 6:19:00 PM
机器之心

现场Live震撼!OmAgent框架强势开源!行业应用已全面开花

第一个提出自动驾驶并进行研发的公司是 Google,巧的是,它发布的 Transformer 模型也为今天的大模型发展奠定了基础。自动驾驶已经完成从概念到现实的华丽转变,彻底重塑了传统驾车方式,而大模型行业正在经历的,恰如自动驾驶技术发展的传奇征程 ——最顶尖的研发团队竞相投身其中、不断加速抢跑的技术产品创新,以及持续被推向极致的用户体验。在大模型赛道中,有一家企业始终以领先的身位,推动着行业边界向前拓展。为什么是联汇科技?当行业刚开始关注大模型,他们已经锚定多模态大模型,并高分取得了工信部大模型检测的 001 号
7/6/2024 11:02:00 AM
机器之心
  • 1