MemOS
重塑记忆架构:LLM正在安装「操作系统」
超长上下文窗口的大模型也会经常「失忆」,「记忆」也是需要管理的。 众所周知,现代大型语言模型(LLM)的上下文窗口普遍有限 —— 大多数模型只能处理数千到数万 token,比如早期的 GPT-3 仅有~2,048 token。 虽然近期有些模型已经拓展到了百万级甚至千万级 token 窗口(如 Meta 的 Llama 4 Scout 宣称可达 1,000 万 token)。
7/16/2025 1:00:00 PM
机器之心
重塑AI记忆边界:MemOS开源!时序推理较OpenAI提升159%
大模型记忆管理和优化框架是当前各大厂商争相优化的热点方向,MemOS 相比现有 OpenAI 的全局记忆在大模型记忆评测集上呈现出显著的提升,平均准确性提升超过 38.97%,Tokens 的开销进一步降低 60.95%,一举登顶记忆管理的 SOTA 框架,特别是在考验框架时序建模与检索能力的时序推理任务上,提升比例更是达到了 159%,相当震撼! 图 1. MemOS 项目官网报告的性能表现在大型语言模型(LLM)一路狂飙的这几年,参数规模和算力几乎成了 AI 能力的代名词。
7/7/2025 1:18:00 PM
机器之心
MemOS:打破 LLM “记忆”孤岛,实现 Agent 协同智能
大家好,我是肆〇柒。 在浏览论文时,我发现了一款用于构建 AI 应用的infra框架,它可以应用在 Agent 的 Memory 的管理构建上。 今天,我就为大家介绍一下这款框架 ——MemOS。
6/23/2025 9:26:24 AM
肆零柒
- 1
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
AI绘画
谷歌
机器人
数据
大模型
Midjourney
开源
智能
Meta
用户
微软
GPT
学习
技术
图像
Gemini
马斯克
智能体
AI创作
AI新词
Anthropic
英伟达
论文
训练
代码
算法
LLM
Stable Diffusion
芯片
蛋白质
腾讯
开发者
Claude
苹果
AI for Science
Agent
生成式
神经网络
机器学习
3D
研究
xAI
生成
人形机器人
AI视频
计算
百度
Sora
工具
GPU
华为
RAG
AI设计
大语言模型
字节跳动
具身智能
搜索
大型语言模型
场景
深度学习
视频生成
预测
视觉
AGI
伟达
架构
Transformer
神器推荐
亚马逊
特斯拉
编程
Copilot
DeepMind