AI在线 AI在线

MemoRAG

突破长上下文瓶颈!MemoRAG:用全局记忆重构RAG,让 RAG 像人一样 “读长文档” 的核心秘诀

在大模型处理长文本的场景中,你是否曾遇到过这些难题? 直接用长上下文LLM成本高昂,128K tokens的推理不仅耗时长,还会占用大量GPU内存;传统RAG面对模糊查询(比如“总结这本书的核心人物关系”)时束手无策,更无法处理非结构化的超长文档(如100页的法律合同、多年度财务报告)。 今天要介绍的MemoRAG,或许能解决这些痛点。
10/31/2025 10:13:19 AM
Goldma
  • 1