AI在线 AI在线

RAG

从“知识断片”到“零样本推理”:AutoBnB-RAG如何赋能多智能体AI安全协作

大家好,我是肆〇柒。 今天要和大家分享的这项研究来自佐治亚理工学院(Georgia Institute of Technology)的工作,AutoBnB-RAG非常巧妙,为解决大型语言模型在网络安全决策中的“知识断片”问题,提供了一个既符合人类专家直觉又极具工程智慧的方案——让AI团队在“卡壳”时才去“查资料”。 这个研究为我们在多智能体中应用 agentic RAG 带来一些启发。
9/2/2025 2:00:00 AM
肆零柒

构建检索增强生成(RAG):从基础版到多智能体系统的演进之路

在企业人工智能领域,检索增强生成(RAG)无疑是一个令人向往的目标。 只需让大型语言模型(LLM)接入企业私有数据,就能瞬间拥有一位精通业务的“天才专家”。 然而,残酷的现实是,众多RAG项目纷纷折戟沉沙。
9/1/2025 8:53:57 AM
大模型之路

从3000万到1777.9 Token:LogicRAG用动态逻辑图实现“零预建图的高效推理

大家好,我是肆〇柒。 今天要和大家分享的是一项来自香港理工大学的研究——LogicRAG。 这项工作挑战了当前主流的GraphRAG范式,提出了一种无需预建图、按需生成动态逻辑结构的新型RAG框架。
8/28/2025 1:00:00 AM
肆零柒

RAG知识库不等于数据库!90%企业都在做无用功

"我们花了300万上AI系统,结果还不如Excel好用。 " 上周在一个技术交流会上,某制造业CTO的这句话引起了全场共鸣。 台下不少人都在点头,看来大家都有类似的"血泪史"。
8/27/2025 8:43:39 AM
大数据AI智能圈

LlamaIndex新手指南(2025):从0到生产环境,构建RAG应用的完整指南

在人工智能蓬勃发展的当下,大语言模型(LLMs)如ChatGPT、Llama等展现出强大的自然语言处理能力,在翻译、写作、通用问答等任务中表现亮眼。 然而,它们存在知识局限,其知识储备仅基于训练数据,面对特定领域查询易生成错误信息,这极大限制了在实际场景中的应用价值。 为解决该问题,检索增强生成(Retrieval-Augmented Generation,RAG)技术诞生,通过在查询时高效处理、存储和检索文档片段,确保LLMs能生成更准确、具上下文感知的回答,无需昂贵的重新训练或微调。
8/27/2025 4:15:00 AM
大模型之路

RAG 文档解析工具选型指南

对于 RAG 系统而言,从文档中提取信息是一个不可避免的情况。 最终系统输出的质量很大程度上取决于从源内容中提取信息的效果。 过去,我曾从不同角度探讨过文档解析问题[1]。
8/26/2025 3:32:33 PM
Baihai IDP

RAG(检索增强)当前主要的问题以及评估方法

RAG(检索增强生成)虽然极大地提升了大型模型(LLM)回答问题的准确性和时效性,但在实际落地过程中,它远非一个完美的解决方案。 下面,我们将详细梳理当前 RAG 系统遇到的主要问题,以及业界为解决这些问题而探索出的先进解决实践和涌现出的优秀开源产品。 一、 当前 RAG 系统面临的核心问题RAG 的问题可以归结为一句话:“垃圾进,垃圾出”(Garbage In, Garbage Out)。
8/26/2025 1:45:00 AM
朱洁

CC吊炸天的秘密找到了!旧金山初创CEO自曝数月研究:CC主控制仅1个循环,大量使用小模型,惊呼:简单到爆,肝一份深度复刻指南

编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)世界上最好用的编程工具,Claude Code,又被人深度研究了! 它背后,竟然只保留了一个主控制循环,系统逻辑竟然简单到爆。 管AI代理如此复杂,但这款最令人愉悦的AI编程工具,却保持了极其简单的方式。
8/25/2025 4:47:13 PM
云昭

告别固定分块!2024 EMNLP 新方法 LumberChunker:用 LLM 实现动态语义分块,检索效果显著提升

在大语言模型(LLM)主导的现代 NLP 领域,密集检索已成为问答、摘要、知识问答等任务的核心支撑 —— 毕竟模型再强大,也需要精准的外部上下文来避免 “幻觉”、获取最新信息。 但检索效果的好坏,往往卡在一个容易被忽视的环节:文本分块。 传统分块方法(按句子、段落或固定长度切割)就像用尺子机械丈量文本,完全忽略了内容的语义关联性:要么把一个完整的概念拆得七零八落,导致检索片段上下文残缺;要么把多个无关主题硬塞进一个块里,引入大量噪声。
8/25/2025 8:59:13 AM
Goldma

2025 年过半,RAG 领域进展如何?这份报告为你深度解析

2025 年已经过半,在 LLM 领域,RAG(检索增强生成)技术一直是备受关注的焦点。 近期,RAGFlow 团队发布了 2025 年过半的 RAG 进展报告下面来详细看下。 1、RAG 与智能体的关系被误读的 "智能体化 RAG"2025 年 AI 圈最热闹的话题莫过于智能体系统,随之而来的 "智能体无需 RAG" 论调一度引发行业困惑。
8/22/2025 9:36:04 AM
Goldma

记忆即推理:ComoRAG的认知循环如何重塑长文本理解

大家好,我是肆〇柒。 在长篇小说和叙事文本的理解领域,一个核心挑战始终存在:如何让AI系统像人类一样,不仅捕捉离散的线索,还能构建和更新对复杂情节线和动态演变的角色关系的连贯理解? 传统检索增强生成(Retrieval-Augmented Generation, RAG)方法虽然在长上下文处理中扮演重要角色,但其"无状态"的单步检索过程往往导致对矛盾证据的整合失败,产生浅层理解。
8/20/2025 1:24:54 PM
肆零柒

全新语义分块算法 Late Chunking:让文本检索更精准的秘密武器​

在RAG全链路中,高质量的文本分块技术是RAG检索效果的关键一环。 前面介绍了基于Sentence-Transformer的语义分块方法,今天来看一种名为Late Chunking的新型分块方法,不同于传统的 “先分割再嵌入” 模式,而是通过 “先嵌入再分割” 的创新思路,让文本块的语义表示更加精准。 下面,将从研究动机、算法详解、实验结果和总结四个方面,详细了解下这个方法。
8/15/2025 10:45:45 AM
Goldma

17 种 RAG 架构实现原理与选型

RAG(Retrieval-Augmented Generation)是一种结合外部知识检索与语言模型生成的混合技术架构。 它在大型语言模型(如 GPT)生成能力的基础上,通过外部知识库提高了准确性、时效性和可控性,广泛用于企业问答、搜索增强、智能客服、代码辅助、知识图谱等场景。 然而,RAG不是一个固定结构,也没有固定的套路,而是一套可以灵活演化的系统。
8/4/2025 6:05:00 AM
Andflow

测试不同的RAG技术以找到最佳方案

检索增强生成(RAG)技术通过结合大型语言模型(LLMs)与外部数据检索能力,能够提供准确且富含上下文的答案。 无论是构建客户支持聊天机器人还是研究助手,RAG都能通过从数据库中提取相关信息来增强AI的性能。 然而,不同的RAG技术在性能上存在差异,选择最佳技术需要进行测试。
8/1/2025 3:20:00 AM
大模型之路

一小时内构建基于Gemma与Bright Data的生产级RAG应用

在人工智能快速发展的当下,大语言模型(LLM)的应用日益广泛,但模型幻觉、知识时效性差等问题始终困扰着开发者。 检索增强生成(RAG)技术的出现为解决这些问题提供了有效方案,它能让模型基于真实数据生成可靠回答。 本文将详细介绍如何在一小时内,利用Gemma 3开源模型和Bright Data的SERP API构建一个生产级RAG应用,无需依赖昂贵的商业服务,全程本地运行。
8/1/2025 2:11:00 AM
大模型之路

RAG应用如何进行有效的文本切分

在RAG(检索增强生成,Retrieval-Augmented Generation)应用中,文本分块(Text Chunking)是连接“知识存储”与“检索-生成”的核心预处理步骤,其重要性体现在对检索效率、相关性、生成质量及系统灵活性的多维度影响。 首先松哥和大家讨论第一个问题,就是为什么我们要重视文本切分。 一、为什么文本切分很重要1.1 提升检索相关性:精准匹配用户需求RAG 的核心是“先检索、后生成”,而检索的本质是从知识库中找到与用户查询语义最相关的信息。
8/1/2025 1:55:00 AM
江南一点雨

多阶段的多模态RAG幻觉缓解方案:智能眼镜等实时交互场景比赛方案-MM-RAG

VLMs 在多模态推理中虽表现强大,但在处理特定场景时易产生 “幻觉”,如:复杂场景适配问题:面对第一视角图像(如智能眼镜拍摄的实时画面)、长尾实体(罕见物体 / 概念)、多跳推理问题(需多步逻辑推导)时,模型易因知识不足或误判生成错误结论;知识时效性问题:模型依赖内部先验知识,对涉及时效性的内容(如实时事件、动态变化的信息)易输出过时答案。 图片比赛链接:。 该框架通过四个核心阶段的协同运作,实现“减少幻觉”与“保证信息量”的平衡,同时兼顾效率与可靠性。
7/31/2025 5:15:00 AM
llmnlp

面试官:聊聊RAG的执行流程?

RAG、MCP 和 FunctionCall 等都是 AI 的核心技术,同时也是面试中最长问的知识点,那么今天就来看下:RAG 技术及其执行流程。 概述RAG(Retrieval-Augmented Generation,检索增强生成)是指在将原始问题发送给大语言模型之前,先通过外部知识库将数据进行注入,之后先在知识库中检索相关信息,然后再将检索结果和原始问题一起发送给大模型组织、整理答案的一种技术手段。 通过这种实现方式,大语言模型可以获取到特定领域的相关信息,并能够利用这些信息进行回复,从而降低了发生幻觉的可能性。
7/25/2025 1:45:00 AM
磊哥