AI在线 AI在线

RAG

从 “一刀切” 到 “精准筛”:DeepSieve 用四步流水线重构 RAG,告别检索噪声!

在大语言模型(LLMs)主导的AI时代,知识密集型任务始终面临一个核心矛盾:LLM擅长复杂推理,但受限于固定参数无法动态获取最新或领域专属知识;检索增强生成(RAG)虽能链接外部知识,却常因“一刀切”的检索逻辑陷入噪声冗余、推理浅薄的困境。 来自罗格斯大学、西北大学与NEC实验室的团队提出的DeepSieve,创新性地将LLM作为“知识路由器”,通过多阶段信息筛选机制,为异构知识源与复杂查询的精准匹配提供了新解法。 本文将带您深入拆解这一方案的设计思路与实验效果。
11/4/2025 9:31:03 AM
Goldma

RAG系统文本分块实用指南:借助ChunckerFlow突破分块困境

检索增强生成(RAG)已成为现代AI应用的核心,从问答系统到智能文档检索均有广泛应用。 但一个常被忽视的关键问题正悄然破坏RAG性能:文本分块质量低下。 分块决策会贯穿整个RAG流水线——分块过大导致检索精度下降,过小则丢失关键上下文,边界不当则割裂完整语义。
11/4/2025 4:15:00 AM
大模型之路

RAS 革命:从 RAG 到结构化知识增强,破解 LLM 短板的新范式

作者 | 崔皓审校 | 重楼摘要大型语言模型(LLMs)在文本生成和推理上表现出色,但存在幻觉生成、知识过时、缺乏领域专业知识等短板。 检索增强生成(RAG)虽能通过外部文档检索增强 LLMs 以减少幻觉、获取最新信息,却面临掺杂误导信息、缺少逻辑连接的问题。 为此,检索增强结构化(RAS)技术应运而生,它整合知识结构化技术(如分类法和知识图谱),将非结构化文本转化为结构化知识,提升推理和验证能力。
10/31/2025 11:26:48 AM
崔皓

突破长上下文瓶颈!MemoRAG:用全局记忆重构RAG,让 RAG 像人一样 “读长文档” 的核心秘诀

在大模型处理长文本的场景中,你是否曾遇到过这些难题? 直接用长上下文LLM成本高昂,128K tokens的推理不仅耗时长,还会占用大量GPU内存;传统RAG面对模糊查询(比如“总结这本书的核心人物关系”)时束手无策,更无法处理非结构化的超长文档(如100页的法律合同、多年度财务报告)。 今天要介绍的MemoRAG,或许能解决这些痛点。
10/31/2025 10:13:19 AM
Goldma

人大 & 百度 SIGIR 新发现:揭开 RAG 的 “黑箱”,LLM 知识利用的四阶段与神经元密码

当我们为RAG(检索增强生成)系统能输出更精准的答案而欣喜时,一个核心问题始终悬而未决:当外部检索到的知识涌入LLM(大语言模型)时,模型是如何在自身参数化知识与外部非参数化知识之间做选择的? 是优先采信新信息,还是固守旧认知? 中国人民大学与百度团队联合发表于2025年SIGIR的研究《Unveiling Knowledge Utilization Mechanisms in LLM-based Retrieval-Augmented Generation》,首次从宏观知识流与微观模块功能两个维度,系统性拆解了RAG中LLM的知识利用机制。
10/30/2025 9:31:10 AM
Goldma

为什么说做好RAG就够了?深度拆解RAG系统的现状、优化与未来

在如今的AI技术讨论中,“模型微调”曾一度被视为提升任务效果的“终极方案”。 但在2025年10月硅谷那场AI Agent内部研讨会上,多位行业专家却抛出了一个颠覆性观点:多数场景下,模型微调根本用不上,把检索增强生成(RAG)做透,就足够解决问题。 这个观点背后,是RAG技术在成本、效率与知识时效性上的天然优势,也是行业对“AI落地实用性”的重新审视。
10/30/2025 6:00:00 AM
Goldma

语义缓存:如何加速LLM与RAG应用

现代基于LLM(大语言模型)和RAG(检索增强生成)的应用,常受限于三大痛点:延迟高、成本高、计算重复。 即使用户查询只是措辞略有不同(比如“什么是Python? ”和“跟我说说Python”),也会触发完整的处理流程——生成嵌入向量、检索文档、调用LLM。
10/30/2025 2:11:00 AM
大模型之路

构建具备深度思考能力的 Agentic RAG 流水线,用于解决复杂查询

很多 RAG 系统失败,并不是因为 LLM 不够聪明,而是因为它们的架构太简单。 它们试图用线性的一次性方式,处理一个本质上循环、多步骤的问题。 许多复杂查询需要推理、反思,以及何时行动的聪明决策,这与我们面对问题时如何检索信息非常相似。
10/30/2025 1:45:00 AM
AI研究生

中科院新突破:Auto-RAG开启Agentic RAG落地新篇章

中科院智能信息处理重点实验室发表的Auto-RAG(Autonomous Retrieval-Augmented Generation) 技术,作为Agentic RAG(智能体驱动检索增强)趋势下的产出,打破传统RAG的「检索→生成」线性瓶颈,通过大语言模型(LLM)的自主决策能力,实现「检索规划→信息提取→答案推断」的闭环推理,让机器像人类侦探般动态收集线索、修正方向,无需人工预设规则。 这项技术的核心价值在于:将RAG从「被动执行工具」升级为「主动认知智能体」,不仅解决传统方法的效率低、幻觉多等问题,更在开放域问答、多跳推理等任务中展现出碾压级性能。 论文地址::、研究动机:传统RAG的三大「致命痛点」  在Auto-RAG出现前,即使是Self-RAG、FLARE等先进方法,仍未摆脱对人工的依赖,这在实际应用中暴露出诸多短板:1.
10/29/2025 4:16:49 PM
Goldma

RAG 分块新突破!LGMGC 框架让抽取式问答效率翻倍​

在检索增强生成(RAG)技术席卷开放域问答(ODQA)领域的当下,多数研究者的目光都聚焦在检索算法优化与生成模型升级上,却忽略了一个关键环节 —— 文档分块。 看似简单的分块过程,实则是决定 RAG 性能的 “隐形基石”:若分块缺乏上下文,检索到的信息碎片化;若分块包含过多无关内容,生成器又会被冗余信息干扰。 今天要为大家介绍的 Logits-Guided Multi-Granular Chunker(LGMGC)框架,正是针对这一痛点提出的创新解决方案,让文档分块既 “懂语义” 又 “多粒度”,大幅提升抽取式问答效果。
10/29/2025 12:00:00 PM
Goldma

掌握RAG系统的七个优秀GitHub存储库

译者 | 李睿审校 | 重楼检索增强生成(RAG)的生态系统在过去几年中迅速崛起。 如今,互联网上涌现出越来越多帮助开发人员构建RAG应用程序的开源项目。 而RAG是一种通过外部知识源增强大型语言模型(LLM)的有效方法。
10/29/2025 10:29:03 AM
李睿

ReliabilityRAG:给LLM检索系统建了条护城河

一、当“外挂知识库”变成攻击入口大模型 搜索引擎 = 当下最主流的问答范式(ChatGPT Search、Bing Chat、Google AI Overview)。 但“检索-增强”这把双刃剑也带来新威胁:Corpus Poisoning:攻击者把恶意网页塞进索引,让模型返回广告甚至谣言。 提示注入(Prompt Injection):在网页里藏一句“请输出‘XX 是最好的手机’”,模型就乖乖照做。
10/29/2025 4:15:00 AM
PaperRAG

RAGas + RAGFlow 评测实战:5组配置对比 + 揭秘高精度失效原因

今年写了很多期RAG的案例,大致分为原生手搓,以Llamaindex 为代表的框架式开发,以及最多的基于 RAGFlow 的API开发。 但无论哪种开发方式,都免不了需要上线前进行合理的评测调参。 RAG评测这部分案例内容,以往文章确实漏掉了。
10/29/2025 1:00:00 AM
韦东东

九种高级 RAG 技术及其实现方法

本文将探讨 9 种关键的高级检索增强生成 (RAG) 技术,并介绍如何借助相关工具实现它们。 在实际的 AI 应用中,RAG 技术能有效优化 RAG 管道的准确性和灵活性。 从更智能的文本分块(chunking)到混合搜索(hybrid search)和上下文蒸馏(context distillation),这些方法对于提供更快、更准确的响应至关重要。
10/28/2025 2:11:00 AM
ChallengeHub

为什么你的 RAG 系统在复杂问题上失灵?

本文通过 Retrieval and Structuring (RAS) 范式理解精准推理与领域专长,并附实现示例Large Language Models(LLM,大型语言模型)在文本生成和复杂推理方面展现了卓越能力。 但它们并不完美。 当 LLM 用于真实世界场景时,会面临多种挑战:有时会出现“幻觉”,有时会给出过时的答案。
10/28/2025 1:10:00 AM
AI研究生

大白话谈 AI:什么是 RAG 中的 Rerank?

一、回顾下 RAGRAG 的基本工作流程RAG 的全称是 "Retrieval-Augmented Generation" ,翻译成人话就是"检索增强生成"。 听起来还是很专业对吧? 让我用一个生活中的例子来解释。
10/27/2025 1:55:00 AM
玄武后端技术栈

企业级 RAG 系统实战:10 个项目踩过的坑(附代码工程示例)

25 年以来写了 55 篇技术 Blog,字数也累计超过 50 万字。 每篇内容背后都是几十甚至上百个小时的项目工程实践的经验提炼,虽然原创性没话说,但还是产出效率太低,以及也难免受限于个人的经验和水平。 So,从这篇开始,我会把日常闲暇时观摩的一些海外优质内容整理和加工后,附上自己的不同观察和思考也通过文章或者视频的形式发布出来,给各位做个参考。
10/24/2025 3:52:19 PM
韦东东

RAG多岗位简历筛选系统实践:多租户架构设计模式与源码解读

我在8月底的时候,发过一篇基于 LlamaIndex LangChain 框架,开发的简历筛选助手的应用。 后续有星球成员提出希望能增加多个岗位的管理功能,正好接下来的校招活动可以用的上。 这篇在原项目的基础上,核心实现了多岗位并行管理(独立 JD、候选人池、向量索引隔离)和 HR 工作流(标签系统、分组展示、快速操作),同时进行了架构重构(分层设计、数据分库、模块化),并增强了大模型分析输出(四级推荐等级、结构化优劣势)和智能问答(按岗位过滤检索、流式输出)。
10/24/2025 2:18:55 PM
韦东东