检索增强生成
检索做大,生成做轻:CMU团队系统评测RAG的语料与模型权衡
在检索增强生成中,扩大生成模型规模往往能提升准确率,但也会显著抬高推理成本与部署门槛。 CMU 团队在固定提示模板、上下文组织方式与证据预算,并保持检索与解码设置不变的前提下,系统比较了生成模型规模与检索语料规模的联合效应,发现扩充检索语料能够稳定增强 RAG,并在多项开放域问答基准上让小中型模型在更大语料下达到甚至超过更大模型在较小语料下的表现,同时在更高语料规模处呈现清晰的边际收益递减。 更进一步,研究不仅刻画了随语料扩容而变化的性能增益,也揭示了若干相对稳定的不变规律。
不再死记硬背,检索增强生成让AI实现开卷考试
你是不是也遇到过这种情况:问AI助手“今年的新款手机有哪些”,它介绍的还是半年前的旧款。 这根本不是AI助手笨,而是它的知识库没更新。 这种知识过期的根源,在于大模型的训练数据存在固定截止日期,重新训练更新知识需耗费资金和时间成本,检索增强生成(RAG)技术的出现为这一行业痛点提供了解决方案。
2025 年过半,RAG 领域进展如何?这份报告为你深度解析
2025 年已经过半,在 LLM 领域,RAG(检索增强生成)技术一直是备受关注的焦点。 近期,RAGFlow 团队发布了 2025 年过半的 RAG 进展报告下面来详细看下。 1、RAG 与智能体的关系被误读的 "智能体化 RAG"2025 年 AI 圈最热闹的话题莫过于智能体系统,随之而来的 "智能体无需 RAG" 论调一度引发行业困惑。
记忆即推理:ComoRAG的认知循环如何重塑长文本理解
大家好,我是肆〇柒。 在长篇小说和叙事文本的理解领域,一个核心挑战始终存在:如何让AI系统像人类一样,不仅捕捉离散的线索,还能构建和更新对复杂情节线和动态演变的角色关系的连贯理解? 传统检索增强生成(Retrieval-Augmented Generation, RAG)方法虽然在长上下文处理中扮演重要角色,但其"无状态"的单步检索过程往往导致对矛盾证据的整合失败,产生浅层理解。
告别机械切割:语义分块如何让文本理解更智能?基于sentence-transformers
传统的文本分块机制就像用尺子切割布料 —— 不管布料的花纹如何,只按固定长度下刀。 这种 "一刀切" 的方式常常导致语义割裂:明明是一个完整的论点,却被硬生生拆成两半;本该分开的两个主题,反而被塞进同一个块里。 而语义分块的核心思路是:让意思相近的内容 "抱团"。
鹅厂实习生血泪贴:Agent/RAG 黑科技,真相竟是这样!
作者 | 33号实验室/knnwang被Agent/RAG吊打? 你缺的不是智商,是这篇文章! 亲历鹅厂IEG/WXG项目实战,大三菜鸟用血泪debug记录, 撕开AI基石真面目 → 黑科技本质 = ______!
RAGFlow震撼来袭!开源RAG引擎解锁深度文档理解,引爆企业AI新革命!
近日,一款名为RAGFlow的开源RAG(检索增强生成)引擎引发了业界广泛关注。 这款基于深度文档理解的企业级AI工具,以其强大的多模态数据处理能力和高效的工作流程,为企业处理复杂文档和实现精准问答提供了全新解决方案。 RAGFlow:深度文档理解的先锋RAGFlow是一款完全开源的RAG引擎,专注于深度文档理解,旨在帮助企业和个人从海量非结构化数据中提取有价值的信息。
加速发展:Gartner 预测生成 AI 应用将实现50% 的交付时间缩减
根据 Gartner 的最新预测,到2028年,80% 的生成 AI 商业应用将会在现有的数据管理平台上开发。 这一转变有望降低开发复杂性,并将交付时间缩短50%。 目前,生成 AI 商业应用的开发主要依赖于将大型语言模型(LLMs)与企业内部数据相结合,以及不断发展的技术,如向量搜索、元数据管理、提示设计和嵌入技术。
实用指南:构建基于RAG的聊天机器人
译者 | 布加迪审校 | 重楼“你能为我们开发一个聊天机器人吗? ” 如果你的IT团队还没有收到这个请求,相信我,很快就会收到。 随着大语言模型(LLM)的兴起,聊天机器人已成为新的必备功能——无论你是交付SaaS服务、管理内部工具,还是仅仅试图解读庞大的文档。
理解 RAG 第四部分:检索增强生成评估框架
检索增强生成(RAG) 在扩展独立大型语言模型(LLM)的局限性和克服其诸多限制方面发挥了关键作用。 通过整合检索器,RAG 增强了响应的相关性和事实准确性:它只需实时利用外部知识源(例如矢量文档库),并在原始用户查询或提示中添加相关的上下文信息,然后将其传递给 LLM 进行输出生成。 对于那些深入 RAG 领域的人来说,一个自然而然的问题出现了:我们如何评估这些远非简单的系统?
少即是多:为什么文档检索量低反而会提高答案质量
译者 | 核子可乐审校 | 重楼检索增强生成(RAG)是一种将语言模型与外部知识源结合的AI系统构建方法。 简单来说,AI会先搜索与用户查询相关的文档(如文章或网页),然后利用这些文档生成更准确的答案。 这种方法因能帮助大语言模型(LLM)扎根真实数据、减少虚构信息而受到推崇。
企业级RAG选择难题:数据方案的关键博弈
智能时代,企业数据每日剧增。 员工寻找答案的效率直接影响工作流程,StackOverflow调查表明54%的开发者因等待问题答案而工作中断。 信息就在那里,却被深埋在企业资源迷宫中。
基于代理知识蒸馏技术克服文档提取和RAG策略失败问题
译者 | 朱先忠审校 | 重楼简介当下,许多生成式AI应用场景仍然围绕检索增强生成(RAG)展开,但始终未能满足用户的期望。 尽管对RAG改进的研究越来越多,甚至在流程中添加了代理技术,但许多解决方案仍然无法返回详尽的结果,遗漏了文档中很少提及的关键信息,需要多次搜索迭代,并且通常难以协调多个文档中的关键主题。 最糟糕的是,许多实现方案仍然依赖于将尽可能多的“相关”信息与详细的系统和用户提示一起塞入模型的上下文窗口。
详解RAG应用开发幻觉检测利器LettuceDetect
译者 | 朱先忠审校 | 重楼简介最近,我们团队推出了LettuceDetect框架,这是一款用于检索增强生成(RAG)开发管道的轻量级幻觉检测器。 它是一种基于ModernBERT模型构建的基于编码器的模型,根据MIT许可证发布,带有现成的Python包和预训练模型。 是什么:LettuceDetect是一个标记级检测器,可标记LLM回答中不受支持的片段。
GitHub 上流行的 RAG 框架介绍及优缺点分析
随着大型语言模型在自然语言处理中的广泛应用,其固有的知识截止和“幻觉”问题逐渐暴露。 为了解决这些问题,检索增强生成(Retrieval-Augmented Generation,简称 RAG) 技术应运而生。 RAG 通过将外部知识库中的相关信息检索出来,并将这些信息融合到生成过程的上下文中,从而大幅提高了回答的准确性、时效性以及上下文一致性。
构建一个完全本地的语音激活的实用RAG系统
译者 | 布加迪审校 | 重楼本文将探讨如何构建一个RAG系统并使其完全由语音激活。 RAG(检索增强生成)是一种将外部知识用于额外上下文以馈入到大语言模型(LLM),从而提高模型准确性和相关性的技术。 这是一种比不断微调模型可靠得多的方法,可以改善生成式AI的结果。
检索增强生成(RAG)过时了,缓存增强生成(CAG)上位
译者 | 布加迪审校 | 重楼检索增强生成(RAG)已成为为定制信息定制大语言模型(LLM)的事实上的方法。 然而RAG带来了前期技术成本,并且速度可能很慢。 由于长上下文LLM方面取得的进步,企业可以通过在提示中插入所有的专有信息来绕过RAG。
减少LLM幻觉的五大技巧和方法
译者 | 布加迪审校 | 重楼本文介绍了使用LangGraph减少LLM幻觉的简单技巧。 如果你使用过LLM,就知道它们有时会产生幻觉。 这意味着它们生成的文本要么毫无意义,要么与输入数据相矛盾。
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI新词
AI绘画
大模型
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
英伟达
Gemini
智能体
技术
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
AI for Science
代码
腾讯
苹果
算法
Agent
Claude
芯片
具身智能
Stable Diffusion
xAI
蛋白质
人形机器人
开发者
生成式
神经网络
机器学习
AI视频
3D
字节跳动
大语言模型
RAG
Sora
百度
研究
GPU
生成
华为
工具
AGI
计算
生成式AI
AI设计
大型语言模型
搜索
亚马逊
AI模型
视频生成
特斯拉
DeepMind
场景
Copilot
深度学习
Transformer
架构
MCP
编程
视觉