AI在线 AI在线

HtmlRAG:RAG系统中,HTML比纯文本效果更好

HtmlRAG 方法通过使用 HTML 而不是纯文本来增强 RAG 系统中的知识表示能力。 通过 HTML 清洗和两步块树修剪方法,在保持关键信息的同时缩短了 HTML 文档的长度。 这种方法优于现有基于纯文本的RAG的性能。

HtmlRAG 方法通过使用 HTML 而不是纯文本来增强 RAG 系统中的知识表示能力。通过 HTML 清洗和两步块树修剪方法,在保持关键信息的同时缩短了 HTML 文档的长度。这种方法优于现有基于纯文本的RAG的性能。

方法

其实主要看下围绕html提纯思路,将提纯后的Html内容送入LLM进行增强问答。

图片图片

1. HTML 清洗

由于原始 HTML 文档过长(每个超过 80K),并且不需要考虑用户查询的语义特征,因此在这个步骤中使用基于规则的方法进行预处理。这个清洗过程移除无关内容并压缩冗余结构,保留原始 HTML 中的所有语义信息。清洗后的 HTML 适合于配备长上下文 LLM 的 RAG 系统,并且不希望在生成前丢失任何信息。清洗后的 HTML 还是后续 HTML 修剪的基础。

1.1 HTML 内容清洗

从网络上检索到的 HTML 文档包含大量对人类用户不可见的额外内容,如 HTML 标签、CSS 和 JavaScript。大多数 HTML 标签提供丰富的结构信息,帮助 LLM 理解 HTML,而 CSS 和 JavaScript 内容提供的帮助有限。具体的清洗步骤几乎是无损的:

  1. 移除 CSS 样式、注释和 JavaScript。
  2. 清理冗长的 HTML 标签属性。
1.2 无损结构压缩

在大多数 HTML 文档中,原始 HTML 结构包含冗余。对 HTML 结构进行以下压缩而不丢失语义信息:

  1. 合并多层单嵌套标签。例如,将 <div<div><p>some text</p></div></div> 简化为 <p>some text</p>。
  2. 移除空标签,如 <p></p>。

2. 块树构建

为了整体修剪所有检索到的 HTML 文档,我们首先将所有检索到的 HTML 文档连接在一起,并使用 Beautiful Soup 解析为单个 DOM 树。使用 DOM 树修剪 HTML 是最自然的方式,但 DOM 树过于细粒度,导致大量的节点和深树结构带来巨大的计算成本。

HtmlRAG:RAG系统中,HTML比纯文本效果更好

3. 基于块树的 HTML 修剪

块树基础的 HTML 修剪包括两个步骤,这两个步骤都在块树结构上进行。第一个修剪步骤使用嵌入模型来修剪 HTML 清洗模块输出的结果,而第二个步骤使用生成模型来修剪第一个修剪步骤输出的结果。

3.1 基于文本嵌入的块修剪

该步骤的目标是在保持关键信息的同时,缩短检索结果的 HTML 文档长度。通过删除与用户查询相关性较低的块,可以减少输入到LLM中的冗余信息,从而提高生成效率和质量。

步骤
  • 从每个块中提取纯文本内容。使用文本嵌入模型计算这些文本内容与用户查询的相似性得分。通常,嵌入模型会将文本转换为向量表示,并计算这些向量之间的相似性。
  • 贪心算法修剪:使用贪心算法来选择要删除的块。算法会从相似性得分最低的块开始删除,直到 HTML 文档的总长度满足设定的上下文窗口要求。删除块时,可能会重新出现冗余的 HTML 结构(如多层嵌套标签或空标签),因此需要重新调整 HTML 结构,以确保其简洁性和正确性。
  • 重新调整 HTML 结构:在删除块后,检查并合并多层单嵌套标签(例如,将 <div<div><p>...</p></div></div> 简化为 <p>...</p>)。移除空标签(如 <p></p>),以进一步简化 HTML 结构。
3.2 生成模型的细粒度块修剪

生成模型的细粒度块修剪提示词生成模型的细粒度块修剪提示词

如下图,为了进一步细粒度地修剪块,扩展了修剪后块树的叶节点,构建了一个更细粒度的块树。由于生成模型具有较长的上下文窗口,可以全局建模块树。生成模型计算每个块的得分,得分由唯一序列的生成概率给出,序列由从根标签到块标签和文本的HTML标签路径表示。最后,根据块得分,应用类似的贪心算法获得最终的修剪HTML。

HtmlRAG:RAG系统中,HTML比纯文本效果更好

块得分计算。使用分词器将块树转换为标记树,相应的HTML标签和标记用相同的颜色标记。标记生成概率位于右上角,虚线框中的标记不需要推理。块树的右上角显示块概率,可以从相应的标记概率推导出来。

实验效果

图片图片

图片图片

  • HtmlRAG的消融研究及块树粒度影响的实验结果

    图片图片

相关资讯

浅析小语言模型在增强RAG系统中的作用

译者 | 布加迪审校 | 重楼小语言模型(SLM)是大语言模型(LLM)的紧凑版。 它们包含的参数通常少于大语言模型:大约30亿个参数或更少。 这使得它们相对轻量级,推理时间更快。
4/29/2025 8:09:39 AM
布加迪

OCR 识别质量如何影响 RAG 系统的性能?有何解决办法?

检索增强生成(RAG)已成为连接大语言模型与企业数据的标准范式,但该方法存在一个鲜少被讨论的致命缺陷:当前生产环境中的 RAG 系统几乎全部依赖光学字符识别(OCR)技术处理 PDF、扫描件、演示文稿等文档,并默认假设识别结果足以支撑下游 AI 任务。 我们的深度分析表明,这一假设存在根本性缺陷。 OCR 的识别质量形成了一个隐形的天花板,甚至限制了最先进 RAG 系统的性能。
6/11/2025 3:10:00 AM
Baihai IDP

RAG系统的“聪明药”:如何用反馈回路让你的AI越用越聪明?

大家好,我是你们的AI技术侃侃而谈小能手。 今天我们来聊聊RAG(Retrieval-Augmented Generation,检索增强生成)系统的进化之路——如何让它像喝了聪明药一样,越用越聪明,越聊越懂你。 你是不是也有这样的体验?
7/1/2025 8:37:13 AM
许泽宇

深入浅出RAG详解:语言模型的“开卷考试”——让模型答案锚定现实的外部“记忆”

引言大型语言模型(LLMs)彻底革新了自然语言处理领域,但其对静态内部知识的依赖,在事实准确性和时效性方面暴露出根本性局限。 检索增强生成(RAG)作为一种强大的范式应运而生,它构建了一种混合架构,将模型输出动态锚定于外部可验证信息。 本文将深入探讨RAG框架的核心机制——从检索器与生成器组件到参数化记忆与非参数化记忆的关键区别,揭示其在知识密集型应用中实现前沿性能的奥秘。
7/3/2025 2:12:00 AM
柏企阅文

RAG(检索增强)当前主要的问题以及评估方法

RAG(检索增强生成)虽然极大地提升了大型模型(LLM)回答问题的准确性和时效性,但在实际落地过程中,它远非一个完美的解决方案。 下面,我们将详细梳理当前 RAG 系统遇到的主要问题,以及业界为解决这些问题而探索出的先进解决实践和涌现出的优秀开源产品。 一、 当前 RAG 系统面临的核心问题RAG 的问题可以归结为一句话:“垃圾进,垃圾出”(Garbage In, Garbage Out)。
8/26/2025 1:45:00 AM
朱洁

RAG 文档解析工具选型指南

对于 RAG 系统而言,从文档中提取信息是一个不可避免的情况。 最终系统输出的质量很大程度上取决于从源内容中提取信息的效果。 过去,我曾从不同角度探讨过文档解析问题[1]。
8/26/2025 3:32:33 PM
Baihai IDP

构建检索增强生成(RAG):从基础版到多智能体系统的演进之路

在企业人工智能领域,检索增强生成(RAG)无疑是一个令人向往的目标。 只需让大型语言模型(LLM)接入企业私有数据,就能瞬间拥有一位精通业务的“天才专家”。 然而,残酷的现实是,众多RAG项目纷纷折戟沉沙。
9/1/2025 8:53:57 AM
大模型之路

系统梳理 RAG 系统的 21 种分块策略

检索增强生成(RAG)是许多 AI 工程师又爱又恨的技术(包括我)。 没错,因为从理论上看,它简单极了:“从你的定制数据中检索正确的上下文,然后让大语言模型基于此生成回答”。 但在实践中,你不得不面对海量杂乱无章的数据 —— 这些数据以你见过的最混乱随机的格式存储,接着就是数日绞尽脑汁的试错:调整文本块(tweaking chunks)切换嵌入模型(switching embedding models)替换检索器(swapping out retrievers)微调排序器(fine-tuning rankers)重写提示词(rewriting prompts)而模型依然回复:“我找不到足够的信息来回答你的问题”。
9/3/2025 4:00:45 AM
Baihai IDP

为什么你的 RAG 系统在复杂问题上失灵?

本文通过 Retrieval and Structuring (RAS) 范式理解精准推理与领域专长,并附实现示例Large Language Models(LLM,大型语言模型)在文本生成和复杂推理方面展现了卓越能力。 但它们并不完美。 当 LLM 用于真实世界场景时,会面临多种挑战:有时会出现“幻觉”,有时会给出过时的答案。
10/28/2025 1:10:00 AM
AI研究生

RAG系统文本分块实用指南:借助ChunckerFlow突破分块困境

检索增强生成(RAG)已成为现代AI应用的核心,从问答系统到智能文档检索均有广泛应用。 但一个常被忽视的关键问题正悄然破坏RAG性能:文本分块质量低下。 分块决策会贯穿整个RAG流水线——分块过大导致检索精度下降,过小则丢失关键上下文,边界不当则割裂完整语义。
11/4/2025 4:15:00 AM
大模型之路

大模型应用系列:从Ranking到Reranking

每个搜索引擎背后都隐藏着一个至关重要却往往被忽视的组成部分——Reranking(重新排名)。 那么,什么是Rerank呢? 简而言之,这一过程旨在优化并调整搜索结果的顺序,使之更加精准地匹配用户的查询需求。
11/11/2024 5:16:44 PM
曹洪伟

从RAG到QA-RAG:整合生成式AI以用于药品监管合规流程

图片引言聊天机器人的进步近期生成式AI的进展显著增强了聊天机器人的能力。 这些由生成式人工智能驱动的聊天机器人在各个行业中的应用正在被探索[Bahrini等人,2023年;Castelvecchi,2023年;Badini等人,2023年],其中制药行业是一个显著的关注领域。 在药物发现领域,最近的研究表明,由生成式人工智能驱动的聊天机器人在推进药物发现方面可以发挥重要作用[Wang等人,2023年;Savage,2023年;Bran等人,2023年]。
5/8/2025 2:22:00 AM
Wolfgang

中科院新突破:Auto-RAG开启Agentic RAG落地新篇章

中科院智能信息处理重点实验室发表的Auto-RAG(Autonomous Retrieval-Augmented Generation) 技术,作为Agentic RAG(智能体驱动检索增强)趋势下的产出,打破传统RAG的「检索→生成」线性瓶颈,通过大语言模型(LLM)的自主决策能力,实现「检索规划→信息提取→答案推断」的闭环推理,让机器像人类侦探般动态收集线索、修正方向,无需人工预设规则。 这项技术的核心价值在于:将RAG从「被动执行工具」升级为「主动认知智能体」,不仅解决传统方法的效率低、幻觉多等问题,更在开放域问答、多跳推理等任务中展现出碾压级性能。 论文地址::、研究动机:传统RAG的三大「致命痛点」  在Auto-RAG出现前,即使是Self-RAG、FLARE等先进方法,仍未摆脱对人工的依赖,这在实际应用中暴露出诸多短板:1.
10/29/2025 4:16:49 PM
Goldma

你的LLM评估方法过时了吗?这三个范式转变不容错过

在我的职业生涯中,我一直致力于为机器学习系统打造评估体系。 在担任 Quora 数据科学部门负责人时,我们为新闻源排序、广告投放、内容审查等构建了评估机制。 在 Waymo,我们团队为自动驾驶汽车开发了评估标准。
1/21/2025 10:56:41 AM
Baihai IDP

Claude创始人:AI全面超越人类,只剩2-3年

在最新的对话访谈当中,Claude厂家Anthropic的CEO Dario Amodei谈论了他对于AI未来的看法。 他认为,AI确有可能在短期内替代部分人类的工作,但让AI与人类形成互补才是对生产力最有益的方式。 对于当下的年轻人,Amodei也给出了他的建议,鼓励其学会使用AI工具并培养批判思维能力。
1/23/2025 8:40:00 AM
量子位

浙大&通义全面评测智能体复杂任务规划能力,18主流大模型全不及格|ICLR2025

大模型智能体正在迅速发展,能力已不再局限于 API 调用。 诸如OpenAI的Operator和Anthropic的Computer Use等,能够像人类一样直接与界面交互,执行复杂操作。 在处理这类复杂任务的过程中,大模型智能体将问题分解为可执行的工作流(Workflow)是关键的一步。
2/8/2025 2:10:00 PM
量子位

2024年十大人工智能研究论文:收获与应用

2024年,人工智能领域迎来了令人惊叹的创新浪潮。 这一年,从大型语言模型的飞跃到计算机视觉和AI安全的革命性突破,研究界不断突破自我,带来了无数惊喜。 面对如此多的前沿成果,哪些真正让人眼前一亮?
2/14/2025 12:00:55 AM
云朵君

攻破AI最强守卫,赏金2万刀!Anthropic新方法可阻止95% Claude「越狱」行为

最近,Anthropic安全研究团队「有点忙」。 本月4日,Anthropic在X上,邀请网友挑战新的AI防护系统。 两天后,Anthropic称:目前,没有人完全越狱新系统,因此提高了赌注。
2/17/2025 2:41:31 PM
新智元
  • 1