AI在线 AI在线

面试官:聊聊RAG的执行流程?

RAG、MCP 和 FunctionCall 等都是 AI 的核心技术,同时也是面试中最长问的知识点,那么今天就来看下:RAG 技术及其执行流程。 概述RAG(Retrieval-Augmented Generation,检索增强生成)是指在将原始问题发送给大语言模型之前,先通过外部知识库将数据进行注入,之后先在知识库中检索相关信息,然后再将检索结果和原始问题一起发送给大模型组织、整理答案的一种技术手段。 通过这种实现方式,大语言模型可以获取到特定领域的相关信息,并能够利用这些信息进行回复,从而降低了发生幻觉的可能性。

RAG、MCP 和 FunctionCall 等都是 AI 的核心技术,同时也是面试中最长问的知识点,那么今天就来看下:RAG 技术及其执行流程。

概述

RAG(Retrieval-Augmented Generation,检索增强生成)是指在将原始问题发送给大语言模型之前,先通过外部知识库将数据进行注入,之后先在知识库中检索相关信息,然后再将检索结果和原始问题一起发送给大模型组织、整理答案的一种技术手段。

通过这种实现方式,大语言模型可以获取到特定领域的相关信息,并能够利用这些信息进行回复,从而降低了发生幻觉的可能性。

RAG 优势

  • 提高准确性:通过引用外部知识库,减少幻觉现象。
  • 实时更新:允许模型访问最新信息,解决知识局限性问题。
  • 经济高效:与重新训练模型相比,降低了更新成本。

执行流程

RAG 执行流程通常分为以下两个阶段:

1.生成索引阶段:这个阶段通常包括文档清理,以及分词也就是将它们拆分为更小的数据块,并把这些数据库转换成向量,最后存储在向量数据库的过程。

图片图片

2. 检索阶段:使用用户提出的问题,在向量数据库中检索查询的过程。

图片图片

整体执行流程

图片图片

使用场景

RAG 典型使用场景有以下几个。

1. 企业级知识问答系统

  • 场景:公司内部文档(如 HR 政策、技术手册、客户 FAQ)的智能问答。
  • 痛点:传统 LLM 无法访问非公开数据,且知识可能过时。
  • RAG 作用:实时检索内部知识库,生成准确且可溯源的答案。

2.客服与技术支持

  • 场景:电商、SaaS 产品的客户支持(如订单状态查询、故障排查)。
  • 痛点:需依赖实时数据(订单、库存)和动态知识(如促销规则)。
  • RAG 作用:结合用户实时数据(如订单 ID)和知识库,生成个性化回答。

3.医疗与法律咨询

  • 场景:辅助医生查询最新诊疗指南,或律师分析判例库。
  • 痛点:对事实准确性要求极高,且知识需更新(如新药品、法律条文)。
  • RAG 作用:从权威数据库(如 PubMed、法律条文库)检索证据,减少幻觉。

小结

RAG 是给大模型“外接”知识库,让大模型能够更加精准回答问题的一种技术实现手段。它的执行主要分为两个阶段:索引生成阶段(知识库添加到向量数据库的过程),检索阶段(根据用户输入信息在向量数据库查询结果的阶段),当然其中有一些执行细节也需要了解并在面试中回答出来。

相关资讯

从RAG到QA-RAG:整合生成式AI以用于药品监管合规流程

图片引言聊天机器人的进步近期生成式AI的进展显著增强了聊天机器人的能力。 这些由生成式人工智能驱动的聊天机器人在各个行业中的应用正在被探索[Bahrini等人,2023年;Castelvecchi,2023年;Badini等人,2023年],其中制药行业是一个显著的关注领域。 在药物发现领域,最近的研究表明,由生成式人工智能驱动的聊天机器人在推进药物发现方面可以发挥重要作用[Wang等人,2023年;Savage,2023年;Bran等人,2023年]。
5/8/2025 2:22:00 AM
Wolfgang

中科院新突破:Auto-RAG开启Agentic RAG落地新篇章

中科院智能信息处理重点实验室发表的Auto-RAG(Autonomous Retrieval-Augmented Generation) 技术,作为Agentic RAG(智能体驱动检索增强)趋势下的产出,打破传统RAG的「检索→生成」线性瓶颈,通过大语言模型(LLM)的自主决策能力,实现「检索规划→信息提取→答案推断」的闭环推理,让机器像人类侦探般动态收集线索、修正方向,无需人工预设规则。 这项技术的核心价值在于:将RAG从「被动执行工具」升级为「主动认知智能体」,不仅解决传统方法的效率低、幻觉多等问题,更在开放域问答、多跳推理等任务中展现出碾压级性能。 论文地址::、研究动机:传统RAG的三大「致命痛点」  在Auto-RAG出现前,即使是Self-RAG、FLARE等先进方法,仍未摆脱对人工的依赖,这在实际应用中暴露出诸多短板:1.
10/29/2025 4:16:49 PM
Goldma

“一代更比一代强”:现代 RAG 架构的演进之路

基于 RAG(检索增强生成)的 AI 系统,过去是,现在仍然是企业利用大语言模型(LLM)的最有价值的应用之一。 我记得差不多两年前我写了第一篇关于 RAG 的文章,那时候这个术语还未被广泛采用。 我当时描述的是一个以最基础方式实现的 RAG 系统。
6/6/2025 1:15:00 AM
Baihai IDP

RAG:2025年检索增强生成前沿技术完全指南

一、RAG技术的核心突破与行业影响在生成式人工智能爆发的今天,检索增强生成(Retrieval-Augmented Generation, RAG)正以其独特的技术架构,成为连接静态知识库与动态生成能力的桥梁。 这项诞生于2020年的创新技术,通过将信息检索(Retrieval)与文本生成(Generation)解耦又融合的设计,突破了传统语言模型“幻觉”问题的桎梏,为构建可信、可控、可扩展的AI系统奠定了基础。 根据Gartner最新报告,2024年全球已有45%的企业在智能客服、数据分析等场景中部署RAG系统,预计到2025年这一比例将突破68%。
6/13/2025 2:25:00 AM
大模型之路

RAG搭建个人LLM知识库助手,很多人第一步就走错了...

基于RAG技术搭建本地知识库问答助手,已经是相当普遍的应用方案了。 前一阵我在公司实践过,用我们过往积累的、对业务重要的内部知识构建知识库,开发了一个智能问答Agent,能减少团队一部分的答疑时间。 构建知识库时,我们将内部知识整理成了 MarkDown 格式。
7/1/2025 2:22:00 AM
渡码

测试不同的RAG技术以找到最佳方案

检索增强生成(RAG)技术通过结合大型语言模型(LLMs)与外部数据检索能力,能够提供准确且富含上下文的答案。 无论是构建客户支持聊天机器人还是研究助手,RAG都能通过从数据库中提取相关信息来增强AI的性能。 然而,不同的RAG技术在性能上存在差异,选择最佳技术需要进行测试。
8/1/2025 3:20:00 AM
大模型之路

RAG技术落地的两个问题及应对策略

什么是RAG? RAG的全称是检索增强生成(Retrieval-Augmented Generation,简称RAG),它结合了检索和和生成技术,通过整合检索系统和生成模型的优势,来提升模型生成文本的质量和上下文相关性。 这种技术主要是为了解决生成式模型在面对需要具体、实时或领域专业知识时可能产生的准确性不足和上下文不敏感的问题。
11/11/2024 2:23:11 PM
fxcc

绕过 RAG 实时检索瓶颈,缓存增强生成(CAG)如何助力性能突破?

检索增强生成(RAG)作为一种通过整合外部知识源来增强语言模型的强大方法而备受瞩目。 不过,这种方法也带来了一些挑战,比如检索过程的延迟、文档挑选时可能出现的误差,以及系统复杂度的增加。 随着能够处理更长上下文的大语言模型(LLMs)的兴起,缓存增强生成(CAG)技术应运而生,它避免了实时的信息检索。
2/27/2025 10:55:44 AM
追求卓越的

如何选择Embedding Model?关于嵌入模型的十个思考

在大模型应用中,尤其基于RAG框架的大模型应用,嵌入模型(embedding Model)是不可或缺的关键组件。 这里总结了笔者在实践中关于潜入模型的10个思考,希望对大家有所帮助。 嵌入模型在RAG中的重要性嵌入模型能够将文本转换成数值形式的向量,这让计算机可以更高效地处理、对比和检索信息。
5/6/2025 8:51:37 AM
曹洪伟

六位一线 AI 工程师分享自身总结,公开大模型应用摸爬滚打一年心得

六位一线 AI 工程师和创业者,把在大模型应用开发上摸爬滚打一整年的心得,全!分!享!了!(奇怪的六一儿童节大礼包出现了)这篇干货长文,一时间成为开发者社区热议的话题。有网友评价为,大模型领域少有的“有操作性”的实用见解,非常值得一读。这 6 位作者来自不同背景,比如有大厂工程师,也有独立开发者,还有咨询顾问。但他们的共同之处,是过去一年里一直在大模型之上构建真实应用程序,而不只是炫酷的 Demo 演示,他们认为:现在正是非机器学习工程师或科学家,也能把 AI 构建到产品中的时候。在他们的一系列分享中,网友热议的亮
6/1/2024 6:54:15 PM
清源

谷歌推出 DataGemma:基于可信数据源提高 AI 准确度,减少幻觉

科技媒体 maginative 昨日(9 月 12 日)发布博文,报道谷歌公司基于谷歌数据共享(Data Commons)中的真实世界统计数据,推出了开放权重 Gemma 模型的新版本  DataGemma。语言模型当前面临的一大难题就是幻觉(Hallucinations),尤其是大语言模型(LLMs)在处理数值或统计数据时,这一问题变得尤为棘手,因此精确性至关重要。谷歌的 Data Commons 是一个存储库,汇集了来自联合国和疾病控制与预防中心等可信组织收集的超过 2400 亿个数据点。通过利用这一庞大的统计
9/13/2024 7:11:53 AM
故渊

自己动手实现一个RAG应用

我们知道 RAG 有两个核心的过程,一个是把信息存放起来的索引过程,一个是利用找到相关信息生成内容的检索生成过程。 所以,我们这个 RAG 应用也要分成两个部分:索引和检索生成。 RAG 是为了让大模型知道更多的东西,所以,接下来要实现的 RAG 应用,用来增强的信息就是我们这门课程的内容,我会把开篇词做成一个文件,这样,我们就可以和大模型讨论我们的课程了。
12/6/2024 9:58:09 AM
greencoatman

仅用25%数据实现性能超越!MapGS:解决特定传感器配置的在线建图模型训练问题

本文经3D视觉之心公众号授权转载,转载请联系出处。 避免传感器配置差异近年来,多模态传感器融合的新进展推动了自动驾驶应用中感知方法的发展。 这些进展涵盖了 3D 目标检测、在线地图生成与推理、占用预测,以及端到端框架的形式。
1/22/2025 10:40:00 AM
3D视觉之心

20K合成数据就能让大模型能力飙升!还能实现模型自我迭代,上海AI Lab数据合成新范式

仅使用20K合成数据,就能让Qwen模型能力飙升——模型主观对话能力显著提升,还能实现模型自我迭代。 最近,来自上海AI Lab的研究团队针对合成数据技术展开研究,提出了SFT数据合成引擎Condor,通过世界知识树(World Knowledge Tree)和自我反思(Self-Reflection)机制,探索合成海量高质量SFT数据的方案。 结果,他们还意外发现,在增大合成数据量的情况下,模型性能持续提升。
1/23/2025 9:15:00 AM
量子位

闲来无事,我测了测国产大模型的RAG能力 新智元 新智元 2025年01月27日 12:25 北京

最近,AI界被推理模型刷屏了。 国内各家的推理模型,在新年到来之际不断刷新我们的认知。 不过,当我们在实际应用中考量大模型,衡量好不好用的标准,就绝不仅仅局限于其性能和规模了。
1/27/2025 12:41:00 PM
新智元

Sam Altman炸场东京,亲曝GPT-5研发路线图,多模态能力颠覆传统

昨天,OpenAI联合创始人兼首席执行官Sam Altman出席了日本东京大学活动,介绍了OpenAI的技术研发、产品规划以及GPT模型未来发展等重要信息。 在问答环节,有学生提到了大家比较关心的GPT-5问题,Altman表示,GPT-5将是一个超级混合模型,计划会把GPT和o系列模型整合在一起,并且支持视频、音频、图像的多模态交互。 Altman做了一个比喻,GPT-3到GPT-4是一次史诗级性能飞跃,而GPT-4再到GPT-5将会再一次重现这种惊喜。
2/5/2025 10:26:23 AM
AIGC开放社区

诺奖得主DeepMind CEO放话:DeepSeek是中国最好AI模型,但没任何科学进步

就在今天,谷歌DeepMind的首席执行官Demis Hassabis对DeepSeek进行了一番「捧杀」——「它可能是中国最好的工作,但没有展示任何新的科学进展。 」Hassabis首先称DeepSeek的模型是「一项令人印象深刻的工作」,然后便一改口风说道:「从技术角度来看,这并不是一个重大变革」,同时还特别强调「炒作有点夸大了」。 「尽管炒作很多,但实际上并没有新的科学突破,它使用的都是已知的AI技术。
2/10/2025 12:30:00 PM
新智元

Nature:离 “量子互联网” 又近一步!牛津大学证实分布式量子计算可行性

量子通信技术又迎来了新进展! 牛津大学研究人员在Nature上发表的最新研究,在两米的距离上实现了确定性的量子门传送,保真度达86%。 研究人员表示,这项研究给各种物理平台的大规模量子计算提供了可行的途径,并为量子互联网打下了基础。
2/10/2025 1:40:00 PM
量子位
  • 1