AI在线 AI在线

RAG

一小时内构建基于Gemma与Bright Data的生产级RAG应用

在人工智能快速发展的当下,大语言模型(LLM)的应用日益广泛,但模型幻觉、知识时效性差等问题始终困扰着开发者。 检索增强生成(RAG)技术的出现为解决这些问题提供了有效方案,它能让模型基于真实数据生成可靠回答。 本文将详细介绍如何在一小时内,利用Gemma 3开源模型和Bright Data的SERP API构建一个生产级RAG应用,无需依赖昂贵的商业服务,全程本地运行。
8/1/2025 2:11:00 AM
大模型之路

RAG应用如何进行有效的文本切分

在RAG(检索增强生成,Retrieval-Augmented Generation)应用中,文本分块(Text Chunking)是连接“知识存储”与“检索-生成”的核心预处理步骤,其重要性体现在对检索效率、相关性、生成质量及系统灵活性的多维度影响。 首先松哥和大家讨论第一个问题,就是为什么我们要重视文本切分。 一、为什么文本切分很重要1.1 提升检索相关性:精准匹配用户需求RAG 的核心是“先检索、后生成”,而检索的本质是从知识库中找到与用户查询语义最相关的信息。
8/1/2025 1:55:00 AM
江南一点雨

多阶段的多模态RAG幻觉缓解方案:智能眼镜等实时交互场景比赛方案-MM-RAG

VLMs 在多模态推理中虽表现强大,但在处理特定场景时易产生 “幻觉”,如:复杂场景适配问题:面对第一视角图像(如智能眼镜拍摄的实时画面)、长尾实体(罕见物体 / 概念)、多跳推理问题(需多步逻辑推导)时,模型易因知识不足或误判生成错误结论;知识时效性问题:模型依赖内部先验知识,对涉及时效性的内容(如实时事件、动态变化的信息)易输出过时答案。 图片比赛链接:。 该框架通过四个核心阶段的协同运作,实现“减少幻觉”与“保证信息量”的平衡,同时兼顾效率与可靠性。
7/31/2025 5:15:00 AM
llmnlp

面试官:聊聊RAG的执行流程?

RAG、MCP 和 FunctionCall 等都是 AI 的核心技术,同时也是面试中最长问的知识点,那么今天就来看下:RAG 技术及其执行流程。 概述RAG(Retrieval-Augmented Generation,检索增强生成)是指在将原始问题发送给大语言模型之前,先通过外部知识库将数据进行注入,之后先在知识库中检索相关信息,然后再将检索结果和原始问题一起发送给大模型组织、整理答案的一种技术手段。 通过这种实现方式,大语言模型可以获取到特定领域的相关信息,并能够利用这些信息进行回复,从而降低了发生幻觉的可能性。
7/25/2025 1:45:00 AM
磊哥

如何从零开始构建Zepto的多语言查询解析系统?

译者 | 李睿审校 | 重楼本文介绍如何从零开始构建Zepto的多语言查询解析系统,该系统利用LLM与RAG技术处理拼写错误及方言查询问题。 通过复制从模糊查询到修正输出的端到端流程,可以解释这一技术在提升搜索质量与多语言查询处理中的核心作用。 你用过Zepto在网上订购杂货吗?
7/24/2025 7:42:08 AM
李睿

告别机械切割:语义分块如何让文本理解更智能?基于sentence-transformers

传统的文本分块机制就像用尺子切割布料 —— 不管布料的花纹如何,只按固定长度下刀。 这种 "一刀切" 的方式常常导致语义割裂:明明是一个完整的论点,却被硬生生拆成两半;本该分开的两个主题,反而被塞进同一个块里。 而语义分块的核心思路是:让意思相近的内容 "抱团"。
7/24/2025 4:00:00 AM
Goldma

AIGC、RAG、Agent、Function Call、MCP 到底啥关系?一次讲明白!

Hello,大家好,我是 Sunday。 最近很多同学特别关注 AI 相关的领域。 但是,AI 技术发展太快了,AIGC、RAG、Agent、Function Call、MCP 等等的各种热词层出不穷的。
7/22/2025 1:55:00 AM
程序员Sunday

RAG 中文本分块全攻略,这个项目让效率狂飙

在构建 Retrieval-Augmented Generation(RAG)系统时,文本分块作为关键前置环节,其质量直接影响检索精度与生成内容的相关性。 今天给大家推荐一个自己近期整理的项目 ——Awesome-Chunker,一站式聚合并复现了当下主流的文本分块技术,从经典方法到前沿算法应有尽有,助你在 RAG 开发中少走弯路! 1、项目核心价值 让分块不再是难题在 RAG 任务的探索之路上,相信不少研究者都和我一样,为寻找一个能系统提升分块质量的项目而苦恼。
7/17/2025 9:35:26 AM
Goldma

RAG系列:MinerU、Docling还是Unstructured?用OmniDocBench评测开源文档解析工具

引言从写 RAG 开发入门这一系列文章开始,特别是文档解析这个环节,有很多读者询问某个文档解析工具的能力怎么样,和其它工具对比如何,这表明开源社区虽然涌现出了很多的文档解析工具,但是它们在实际场景的表现到底如何,这在很多人中是没有太明确答案的。 因而,面对众多工具的选择,我们期望能有一个统一的基准来评估其实际效果,而且对于大部分人来说是需要开箱即用的。 本文我将介绍一款由上海人工智能实验室开源的多源文档解析评测框架  - OmniDocBench[1],凭借其多样性、全面性和高质量标注数据以及配套的评测代码,是一个不错的衡量文档解析工具性能的选择。
7/16/2025 1:00:00 AM

RAG系列:复杂文档解析不理想?使用 TextIn xParse 轻松解析多样性 PDF 文档

在RAG系统的建设中,文档预处理是一个非常关键的环节,因为只有将文档中的图表、表格、公式以及手写批注等信息按阅读顺序还原出来,并最终解析为Markdown格式,这样才能够构建高质量的知识库和高效的信息检索系统,让LLM更好的读懂文档,最终给到用户更准确更全面的回答。 目前的文档解析工具算是百花齐放了,有很多优秀的开源工具(MinerU、Docling、Unstructured等等),在我之前的文章也有讲过。 今天给大家测评一款优秀的文档解析工具 - TextIn xParse[1] ,看下它的文档解析能力到底如何,希望通过我的测评能够给大家带来更多更好的选择。
7/15/2025 9:31:31 AM
燃哥讲AI

AI 系统架构的演进:LLM → RAG → AI Workflow → AI Agent

AI Agent 是当前的一个热门话题,但并非所有 AI 系统都需要采用这种架构。 虽然 Agent 具有自主决策能力,但更简单、更具成本效益的解决方案往往更适合实际业务场景。 关键在于根据具体需求选择恰当的架构方案。
7/11/2025 3:10:00 AM
Baihai IDP

从RAG到Agentic RAG:构建更智能的检索增强系统

在人工智能领域,大型语言模型(LLMs)正以前所未有的速度渗透到各行各业的应用中。 从智能客服到企业知识管理系统,从内容创作辅助到数据分析,LLMs展现出了强大的通用智能。 然而,这些模型在处理需要特定领域知识或实时信息的任务时,常常暴露出"知识遗忘"或"幻觉"问题——它们可能会基于预训练时记忆的信息生成看似合理却不符合事实的回答。
7/4/2025 9:02:48 AM
大模型之路

爆改RAG!让你的AI检索“见人说人话,见鬼说鬼话”——自适应检索的魔法揭秘

一、RAG的“尴尬”与“觉醒”1.1 传统RAG的“直男式”检索RAG系统的基本套路大家都懂:用户提问,系统先去知识库里“搜一搜”,然后把搜到的内容丢给大模型“写一写”,最后输出一段看似高大上的答案。 但问题来了:用户问“XAI是什么? ”——你给我一堆论文段落,啰嗦半天没说重点。
7/3/2025 4:00:00 AM
许泽宇

深入浅出RAG详解:语言模型的“开卷考试”——让模型答案锚定现实的外部“记忆”

引言大型语言模型(LLMs)彻底革新了自然语言处理领域,但其对静态内部知识的依赖,在事实准确性和时效性方面暴露出根本性局限。 检索增强生成(RAG)作为一种强大的范式应运而生,它构建了一种混合架构,将模型输出动态锚定于外部可验证信息。 本文将深入探讨RAG框架的核心机制——从检索器与生成器组件到参数化记忆与非参数化记忆的关键区别,揭示其在知识密集型应用中实现前沿性能的奥秘。
7/3/2025 2:12:00 AM
柏企阅文

你的RAG系统安全么?

生成式人工智能(GenAI)近年来发展迅速,大语言模型成为这一浪潮的核心力量。 无论是商业还是开源模型,它们都具备强大的语言理解与生成能力,正广泛应用于内容创作、聊天机器人等场景,让企业更容易落地智能应用。 但一个关键挑战是如何让这些通用的 LLM 更懂特定领域,同时保持知识的时效性。
7/1/2025 9:36:42 AM
曹洪伟

RAG系统的“聪明药”:如何用反馈回路让你的AI越用越聪明?

大家好,我是你们的AI技术侃侃而谈小能手。 今天我们来聊聊RAG(Retrieval-Augmented Generation,检索增强生成)系统的进化之路——如何让它像喝了聪明药一样,越用越聪明,越聊越懂你。 你是不是也有这样的体验?
7/1/2025 8:37:13 AM
许泽宇

RAG搭建个人LLM知识库助手,很多人第一步就走错了...

基于RAG技术搭建本地知识库问答助手,已经是相当普遍的应用方案了。 前一阵我在公司实践过,用我们过往积累的、对业务重要的内部知识构建知识库,开发了一个智能问答Agent,能减少团队一部分的答疑时间。 构建知识库时,我们将内部知识整理成了 MarkDown 格式。
7/1/2025 2:22:00 AM
渡码

面向RAG与LLM的分块策略权威指南:从基础原理到高级实践

在现代人工智能系统架构中,当大型语言模型(LLMs)和向量数据库吸引着大部分目光时,一个更为基础的处理过程正在幕后默默工作——它最终决定了系统输出的质量、可靠性和相关性。 这个过程就是分块(Chunking):在信息到达模型之前对其进行策略性分割的关键步骤。 作为RAG(检索增强生成)系统的"隐藏架构",分块技术的优劣直接影响着LLM的理解、推理和回答能力,堪称AI应用的"智能基石"。
6/30/2025 4:15:00 AM
大模型之路