AI在线 AI在线

MemOS

重塑记忆架构:LLM正在安装「操作系统」

超长上下文窗口的大模型也会经常「失忆」,「记忆」也是需要管理的。 众所周知,现代大型语言模型(LLM)的上下文窗口普遍有限 —— 大多数模型只能处理数千到数万 token,比如早期的 GPT-3 仅有~2,048 token。 虽然近期有些模型已经拓展到了百万级甚至千万级 token 窗口(如 Meta 的 Llama 4 Scout 宣称可达 1,000 万 token)。
7/16/2025 1:00:00 PM
机器之心

重塑AI记忆边界:MemOS开源!时序推理较OpenAI提升159%

大模型记忆管理和优化框架是当前各大厂商争相优化的热点方向,MemOS 相比现有 OpenAI 的全局记忆在大模型记忆评测集上呈现出显著的提升,平均准确性提升超过 38.97%,Tokens 的开销进一步降低 60.95%,一举登顶记忆管理的 SOTA 框架,特别是在考验框架时序建模与检索能力的时序推理任务上,提升比例更是达到了 159%,相当震撼!       图 1. MemOS 项目官网报告的性能表现在大型语言模型(LLM)一路狂飙的这几年,参数规模和算力几乎成了 AI 能力的代名词。
7/7/2025 1:18:00 PM
机器之心

MemOS:打破 LLM “记忆”孤岛,实现 Agent 协同智能

大家好,我是肆〇柒。 在浏览论文时,我发现了一款用于构建 AI 应用的infra框架,它可以应用在 Agent 的 Memory 的管理构建上。 今天,我就为大家介绍一下这款框架 ——MemOS。
6/23/2025 9:26:24 AM
肆零柒
  • 1