AI在线 AI在线

AI 系统架构的演进:LLM → RAG → AI Workflow → AI Agent

AI Agent 是当前的一个热门话题,但并非所有 AI 系统都需要采用这种架构。 虽然 Agent 具有自主决策能力,但更简单、更具成本效益的解决方案往往更适合实际业务场景。 关键在于根据具体需求选择恰当的架构方案。

AI Agent 是当前的一个热门话题,但并非所有 AI 系统都需要采用这种架构。

虽然 Agent 具有自主决策能力,但更简单、更具成本效益的解决方案往往更适合实际业务场景。关键在于根据具体需求选择恰当的架构方案。

本文将探讨大语言模型(LLMs)的最新进展,并解析 AI 系统的核心设计理念。

我们实践过从不包含示例的提示词技术(zero-shot prompting)到思维链推理,从基于 RAG 的架构到复杂工作流及 autonomous agents 等不同复杂度的 LLM 项目。

这个新兴领域的术语体系仍在演进,不同概念之间的边界尚未界定,分类标准仍不固定。随着该领域的发展,新的框架和工程实践不断涌现,推动构建更可靠的 AI 系统。

为直观展示不同系统的差异,我们将通过简历筛选这个典型案例,揭示不同架构层级在能力和系统复杂度上的非线性跃升。

1.纯 LLM 架构

纯 LLM 本质上是互联网信息的有损压缩包,是从其训练数据中提取的知识快照。它尤其擅长处理依赖其参数化知识(即训练阶段内化的信息)的任务,典型场景包括:总结小说内容、撰写关于全球变暖的论述、用 5 岁儿童能理解的语言解释狭义相对论、或者创作俳句(译者注:日本有一种特定格式的诗歌,叫做“俳(pái)句”,在形式上堪称世界文学中最短的格律诗。)。

但若没有额外的功能扩展,LLM 无法提供实时信息(例如纽约的当前气温)。这正是纯 LLM 与 ChatGPT 等对话式应用的区别 —— 后者通过实时搜索和其他工具增强了核心 LLM 的能力。

不过,并非所有功能增强都需要外部上下文。通过提示词工程(如上下文学习、小样本学习等技术),LLM 无需检索外部信息也能处理特定问题。

应用示例:

只需采用使用单个示例的提示词技术(one-shot prompting)结合上下文学习,就能让 LLM 根据职位描述对简历进行「通过/不通过」的二分类判断。

image.pngimage.png

2.RAG(检索增强生成)

检索方法通过提供相关上下文来增强 LLM 的能力,使其输出更具时效性、精确性和实用性。借助这一技术,可以让 LLM 访问并处理内部数据。这些上下文信息使 LLM 能够提取信息、生成摘要并生成响应。RAG 还能通过实时数据检索获取最新信息。

应用示例:

在简历筛选场景中,通过检索公司的内部数据(如工程操作手册、招聘政策及历史简历资料)来丰富上下文信息,从而做出更准确的分类判断。

检索过程通常需要借助向量化工具、向量数据库和语义搜索等技术实现。

image.pngimage.png

3.工具调用(Tool Use)与 AI 工作流(AI Workflow)

LLM 能够通过定义明确的路径实现业务流程自动化,这类系统最适合处理结构清晰、标准统一的任务。

通过使用工具调用(Tool use)可以实现工作流自动化。通过对接各类 API(包括计算器、日历、邮件服务或搜索引擎等),LLM 可以利用可靠的外部工具,而非依赖其存在非确定性的原生能力。

应用示例:

这个 AI 工作流可以连接招聘门户获取简历和职位描述 → 根据经验、学历和技能评估投递简历者的资质 → 发送相应的邮件回复(拒信或面试邀请)。

要实现这个简历筛选工作流,LLM 需要访问数据库、邮件 API 和日历 API,并按照预设步骤以编程方式实现全流程自动化。

image.pngimage.png

4.AI Agent

AI Agent 是具备自主推理能力和决策能力的系统。它们能够:将任务分解为多个步骤、根据需要调用外部工具、评估执行结果、并自主决定后续动作(存储执行结果/请求人工干预/继续执行下一步)。

这代表着在工具调用和 AI 工作流之上的又一层抽象,实现了规划和决策的自动化。

与 AI 工作流需要明确的用户触发器(如按钮点击)且必须遵循预设路径不同,AI Agent 可以自主启动工作流,并动态决定各环节的执行顺序和组合方式。

应用示例:

AI Agent 可以管理完整的招聘流程,包括:解析简历、通过聊天或邮件协调面试时间、安排面试会议、以及处理日程变更等。

这项综合性任务要求 LLM 具备以下访问权限:数据库、邮件和日历 API,以及聊天和通知系统。

image.pngimage.png

5.核心要点

1)并非所有系统都需要 AI Agent

应从简单、可组合的模式入手,按需逐步增加复杂度。某些场景仅需检索功能即可满足需求。以简历筛选为例,当筛选标准和后续操作明确时,基础工作流就能胜任。仅当需要更大的自主性以减少人工干预时,才应考虑采用 Agent 方案。

2)注重可靠性而非丰富的功能

LLM 的非确定性特质使得构建可靠系统颇具挑战。虽然快速验证概念(proofs of concept)可行,但将其扩展到生产环境时往往暴露各种问题。建议从沙盒环境起步,实施统一的测试方法,并通过防护机制确保系统可靠性。

原文链接:https://www.codelink.io/blog/post/ai-system-development-llm-rag-ai-workflow-agent

相关资讯

从RAG到QA-RAG:整合生成式AI以用于药品监管合规流程

图片引言聊天机器人的进步近期生成式AI的进展显著增强了聊天机器人的能力。 这些由生成式人工智能驱动的聊天机器人在各个行业中的应用正在被探索[Bahrini等人,2023年;Castelvecchi,2023年;Badini等人,2023年],其中制药行业是一个显著的关注领域。 在药物发现领域,最近的研究表明,由生成式人工智能驱动的聊天机器人在推进药物发现方面可以发挥重要作用[Wang等人,2023年;Savage,2023年;Bran等人,2023年]。
5/8/2025 2:22:00 AM
Wolfgang

手搓RAG新增功能:递归检索与迭代查询+重回成熟框架API

在上那篇提到的我手搓的那个 RAG 项目新增功能中,漏掉了递归检索与迭代查询,这篇补上(源码见知识星球)。 经过初步调试对召回效果有明显提升,这种方法解决了传统 RAG 的几个关键问题:处理复杂多步骤问题:通过多次迭代,分解复杂问题信息不足的补充:当初始检索结果不足以回答问题时,自动生成补充查询多角度信息收集:能够从不同角度收集相关信息1、递归检索具体实现递归检索函数(recursive_retrieval)(支持最多三次迭代查询)每次迭代使用混合检索(向量检索 BM25)获取信息使用 LLM 分析当前检索结果,判断是否需要进一步查询如果需要,LLM 会生成新的查询问题,用于下一轮检索换句话说,递归检索的工作原理可以理解为"先检索-后思考-再检索"的过程,模拟了人解决问题的方式:先获取一些信息,思考下是否足够,如果不够则继续查找更多相关信息。 总之,好的结果不是一蹴而就的。
3/10/2025 9:20:00 AM
韦东东

理解 RAG 第九部分:针对 RAG 微调 LLM

在“理解 RAG”系列的前几篇文章中,我们重点探讨了检索增强生成的各个方面。 文章中,我们重点介绍了与大型语言模型 (LLM) 集成的检索器组件,该组件用于检索有意义且真实的上下文知识,从而提升 LLM 输入的质量,并最终提升其生成的输出响应。 具体来说,我们学习了如何管理传递给 LLM 的上下文长度、如何优化检索,以及如何利用向量数据库和索引策略来有效地检索知识。
5/20/2025 6:00:00 AM
晓晓
  • 1