RAG
从 “一刀切” 到 “精准筛”:DeepSieve 用四步流水线重构 RAG,告别检索噪声!
在大语言模型(LLMs)主导的AI时代,知识密集型任务始终面临一个核心矛盾:LLM擅长复杂推理,但受限于固定参数无法动态获取最新或领域专属知识;检索增强生成(RAG)虽能链接外部知识,却常因“一刀切”的检索逻辑陷入噪声冗余、推理浅薄的困境。 来自罗格斯大学、西北大学与NEC实验室的团队提出的DeepSieve,创新性地将LLM作为“知识路由器”,通过多阶段信息筛选机制,为异构知识源与复杂查询的精准匹配提供了新解法。 本文将带您深入拆解这一方案的设计思路与实验效果。
11/4/2025 9:31:03 AM
Goldma
RAG系统文本分块实用指南:借助ChunckerFlow突破分块困境
检索增强生成(RAG)已成为现代AI应用的核心,从问答系统到智能文档检索均有广泛应用。 但一个常被忽视的关键问题正悄然破坏RAG性能:文本分块质量低下。 分块决策会贯穿整个RAG流水线——分块过大导致检索精度下降,过小则丢失关键上下文,边界不当则割裂完整语义。
11/4/2025 4:15:00 AM
大模型之路
RAS 革命:从 RAG 到结构化知识增强,破解 LLM 短板的新范式
作者 | 崔皓审校 | 重楼摘要大型语言模型(LLMs)在文本生成和推理上表现出色,但存在幻觉生成、知识过时、缺乏领域专业知识等短板。 检索增强生成(RAG)虽能通过外部文档检索增强 LLMs 以减少幻觉、获取最新信息,却面临掺杂误导信息、缺少逻辑连接的问题。 为此,检索增强结构化(RAS)技术应运而生,它整合知识结构化技术(如分类法和知识图谱),将非结构化文本转化为结构化知识,提升推理和验证能力。
10/31/2025 11:26:48 AM
崔皓
突破长上下文瓶颈!MemoRAG:用全局记忆重构RAG,让 RAG 像人一样 “读长文档” 的核心秘诀
在大模型处理长文本的场景中,你是否曾遇到过这些难题? 直接用长上下文LLM成本高昂,128K tokens的推理不仅耗时长,还会占用大量GPU内存;传统RAG面对模糊查询(比如“总结这本书的核心人物关系”)时束手无策,更无法处理非结构化的超长文档(如100页的法律合同、多年度财务报告)。 今天要介绍的MemoRAG,或许能解决这些痛点。
10/31/2025 10:13:19 AM
Goldma
人大 & 百度 SIGIR 新发现:揭开 RAG 的 “黑箱”,LLM 知识利用的四阶段与神经元密码
当我们为RAG(检索增强生成)系统能输出更精准的答案而欣喜时,一个核心问题始终悬而未决:当外部检索到的知识涌入LLM(大语言模型)时,模型是如何在自身参数化知识与外部非参数化知识之间做选择的? 是优先采信新信息,还是固守旧认知? 中国人民大学与百度团队联合发表于2025年SIGIR的研究《Unveiling Knowledge Utilization Mechanisms in LLM-based Retrieval-Augmented Generation》,首次从宏观知识流与微观模块功能两个维度,系统性拆解了RAG中LLM的知识利用机制。
10/30/2025 9:31:10 AM
Goldma
为什么说做好RAG就够了?深度拆解RAG系统的现状、优化与未来
在如今的AI技术讨论中,“模型微调”曾一度被视为提升任务效果的“终极方案”。 但在2025年10月硅谷那场AI Agent内部研讨会上,多位行业专家却抛出了一个颠覆性观点:多数场景下,模型微调根本用不上,把检索增强生成(RAG)做透,就足够解决问题。 这个观点背后,是RAG技术在成本、效率与知识时效性上的天然优势,也是行业对“AI落地实用性”的重新审视。
10/30/2025 6:00:00 AM
Goldma
语义缓存:如何加速LLM与RAG应用
现代基于LLM(大语言模型)和RAG(检索增强生成)的应用,常受限于三大痛点:延迟高、成本高、计算重复。 即使用户查询只是措辞略有不同(比如“什么是Python? ”和“跟我说说Python”),也会触发完整的处理流程——生成嵌入向量、检索文档、调用LLM。
10/30/2025 2:11:00 AM
大模型之路
构建具备深度思考能力的 Agentic RAG 流水线,用于解决复杂查询
很多 RAG 系统失败,并不是因为 LLM 不够聪明,而是因为它们的架构太简单。 它们试图用线性的一次性方式,处理一个本质上循环、多步骤的问题。 许多复杂查询需要推理、反思,以及何时行动的聪明决策,这与我们面对问题时如何检索信息非常相似。
10/30/2025 1:45:00 AM
AI研究生
中科院新突破:Auto-RAG开启Agentic RAG落地新篇章
中科院智能信息处理重点实验室发表的Auto-RAG(Autonomous Retrieval-Augmented Generation) 技术,作为Agentic RAG(智能体驱动检索增强)趋势下的产出,打破传统RAG的「检索→生成」线性瓶颈,通过大语言模型(LLM)的自主决策能力,实现「检索规划→信息提取→答案推断」的闭环推理,让机器像人类侦探般动态收集线索、修正方向,无需人工预设规则。 这项技术的核心价值在于:将RAG从「被动执行工具」升级为「主动认知智能体」,不仅解决传统方法的效率低、幻觉多等问题,更在开放域问答、多跳推理等任务中展现出碾压级性能。 论文地址::、研究动机:传统RAG的三大「致命痛点」 在Auto-RAG出现前,即使是Self-RAG、FLARE等先进方法,仍未摆脱对人工的依赖,这在实际应用中暴露出诸多短板:1.
10/29/2025 4:16:49 PM
Goldma
RAG 分块新突破!LGMGC 框架让抽取式问答效率翻倍
在检索增强生成(RAG)技术席卷开放域问答(ODQA)领域的当下,多数研究者的目光都聚焦在检索算法优化与生成模型升级上,却忽略了一个关键环节 —— 文档分块。 看似简单的分块过程,实则是决定 RAG 性能的 “隐形基石”:若分块缺乏上下文,检索到的信息碎片化;若分块包含过多无关内容,生成器又会被冗余信息干扰。 今天要为大家介绍的 Logits-Guided Multi-Granular Chunker(LGMGC)框架,正是针对这一痛点提出的创新解决方案,让文档分块既 “懂语义” 又 “多粒度”,大幅提升抽取式问答效果。
10/29/2025 12:00:00 PM
Goldma
掌握RAG系统的七个优秀GitHub存储库
译者 | 李睿审校 | 重楼检索增强生成(RAG)的生态系统在过去几年中迅速崛起。 如今,互联网上涌现出越来越多帮助开发人员构建RAG应用程序的开源项目。 而RAG是一种通过外部知识源增强大型语言模型(LLM)的有效方法。
10/29/2025 10:29:03 AM
李睿
ReliabilityRAG:给LLM检索系统建了条护城河
一、当“外挂知识库”变成攻击入口大模型 搜索引擎 = 当下最主流的问答范式(ChatGPT Search、Bing Chat、Google AI Overview)。 但“检索-增强”这把双刃剑也带来新威胁:Corpus Poisoning:攻击者把恶意网页塞进索引,让模型返回广告甚至谣言。 提示注入(Prompt Injection):在网页里藏一句“请输出‘XX 是最好的手机’”,模型就乖乖照做。
10/29/2025 4:15:00 AM
PaperRAG
RAGas + RAGFlow 评测实战:5组配置对比 + 揭秘高精度失效原因
今年写了很多期RAG的案例,大致分为原生手搓,以Llamaindex 为代表的框架式开发,以及最多的基于 RAGFlow 的API开发。 但无论哪种开发方式,都免不了需要上线前进行合理的评测调参。 RAG评测这部分案例内容,以往文章确实漏掉了。
10/29/2025 1:00:00 AM
韦东东
九种高级 RAG 技术及其实现方法
本文将探讨 9 种关键的高级检索增强生成 (RAG) 技术,并介绍如何借助相关工具实现它们。 在实际的 AI 应用中,RAG 技术能有效优化 RAG 管道的准确性和灵活性。 从更智能的文本分块(chunking)到混合搜索(hybrid search)和上下文蒸馏(context distillation),这些方法对于提供更快、更准确的响应至关重要。
10/28/2025 2:11:00 AM
ChallengeHub
为什么你的 RAG 系统在复杂问题上失灵?
本文通过 Retrieval and Structuring (RAS) 范式理解精准推理与领域专长,并附实现示例Large Language Models(LLM,大型语言模型)在文本生成和复杂推理方面展现了卓越能力。 但它们并不完美。 当 LLM 用于真实世界场景时,会面临多种挑战:有时会出现“幻觉”,有时会给出过时的答案。
10/28/2025 1:10:00 AM
AI研究生
大白话谈 AI:什么是 RAG 中的 Rerank?
一、回顾下 RAGRAG 的基本工作流程RAG 的全称是 "Retrieval-Augmented Generation" ,翻译成人话就是"检索增强生成"。 听起来还是很专业对吧? 让我用一个生活中的例子来解释。
10/27/2025 1:55:00 AM
玄武后端技术栈
企业级 RAG 系统实战:10 个项目踩过的坑(附代码工程示例)
25 年以来写了 55 篇技术 Blog,字数也累计超过 50 万字。 每篇内容背后都是几十甚至上百个小时的项目工程实践的经验提炼,虽然原创性没话说,但还是产出效率太低,以及也难免受限于个人的经验和水平。 So,从这篇开始,我会把日常闲暇时观摩的一些海外优质内容整理和加工后,附上自己的不同观察和思考也通过文章或者视频的形式发布出来,给各位做个参考。
10/24/2025 3:52:19 PM
韦东东
RAG多岗位简历筛选系统实践:多租户架构设计模式与源码解读
我在8月底的时候,发过一篇基于 LlamaIndex LangChain 框架,开发的简历筛选助手的应用。 后续有星球成员提出希望能增加多个岗位的管理功能,正好接下来的校招活动可以用的上。 这篇在原项目的基础上,核心实现了多岗位并行管理(独立 JD、候选人池、向量索引隔离)和 HR 工作流(标签系统、分组展示、快速操作),同时进行了架构重构(分层设计、数据分库、模块化),并增强了大模型分析输出(四级推荐等级、结构化优劣势)和智能问答(按岗位过滤检索、流式输出)。
10/24/2025 2:18:55 PM
韦东东
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
大模型
机器人
数据
Midjourney
开源
AI新词
Meta
微软
智能
用户
GPT
学习
技术
智能体
马斯克
Gemini
图像
Anthropic
英伟达
AI创作
训练
LLM
论文
代码
算法
AI for Science
Agent
苹果
芯片
Claude
腾讯
Stable Diffusion
蛋白质
开发者
生成式
神经网络
xAI
机器学习
3D
RAG
人形机器人
AI视频
研究
大语言模型
具身智能
生成
百度
Sora
工具
GPU
华为
计算
字节跳动
AI设计
大型语言模型
AGI
搜索
视频生成
场景
生成式AI
深度学习
架构
DeepMind
亚马逊
编程
特斯拉
视觉
Transformer
AI模型
预测
MCP