RAG
HtmlRAG:RAG系统中,HTML比纯文本效果更好
HtmlRAG 方法通过使用 HTML 而不是纯文本来增强 RAG 系统中的知识表示能力。 通过 HTML 清洗和两步块树修剪方法,在保持关键信息的同时缩短了 HTML 文档的长度。 这种方法优于现有基于纯文本的RAG的性能。
使用 DeepSeek R1 和 Ollama 搭建一个 RAG 系统(包含完整代码)
你有没有想过,能不能像跟人聊天一样,直接问 PDF 文件或技术手册问题? 比如你有一本很厚的说明书,不想一页页翻,只想问它:“这个功能怎么用? ”或者“这个参数是什么意思?
【RAG】RAG范式演进及Agentic-RAG总结综述
RAG的核心思想是通过实时数据检索弥补这一缺陷——在生成答案前,系统先从外部数据源(如数据库、API或互联网)动态检索相关上下文,再结合LLM的知识生成更精准、实时的响应。 但它们通常在处理动态、多步推理任务、适应性和复杂工作流的协调方面仍然存在不足。 rag三大组件检索器(Retriever):从外部数据源(如向量数据库、知识图谱或网页)中搜索与查询相关的信息。
FastRAG:半结构化数据的检索增强生成
本文介绍了FastRAG,一种针对半结构化数据的新型RAG方法。 FastRAG采用模式学习和脚本学习来提取和结构化数据,而无需将整个数据源提交给LLM。 它将文本搜索与知识图谱(KG)查询相结合,以提高在问答任务中检索上下文丰富信息的准确性。
Meta-Chunking: 通过逻辑感知学习高效的文本分段
本文是由人大提出的,旨在解决在检索增强生成(RAG)系统中,文本分段这一关键方面被忽视的问题。 具体来说,传统文本分段方法(如基于规则或语义相似性)在捕捉句子间深层语言逻辑联系方面存在不足,导致在知识密集型任务(如开放域问答)中的性能受到影响。 本文通过引入Meta-Chunking的概念及其两种实现策略(边际采样分段和困惑度分段),解决了以下几个关键问题:逻辑连贯性问题:问题:传统文本分段方法往往基于规则或语义相似性,难以捕捉句子间的深层逻辑联系(如因果、过渡、并行和渐进关系)。
FlashRAG:重塑RAG研究的Python工具包
在人工智能和自然语言处理(NLP)的广阔领域中,检索增强生成(Retrieval-Augmented Generation,简称RAG)模型正逐渐成为研究和应用的新热点。 RAG模型通过结合信息检索和生成能力,极大地提高了文本生成的质量和多样性。 然而,RAG研究面临着诸多挑战,如计算效率低下、工具链复杂等。
基于阿里开源Qwen2.5-7B-Instruct模型进行多代理RAG开发实战
译者 | 朱先忠审校 | 重楼引言大型语言模型已经展现出令人印象深刻的能力,并且随着每一代新模型的发布,它们仍在稳步改进。 例如,聊天机器人和自动摘要器等应用程序可以直接利用LLM的语言能力,因为这些LLM只要求生成文本输出——这也是该类模型的自然设置。 此外,大型语言模型还表现出了理解和解决复杂任务的令人印象深刻的能力,但是只要它们的解决方案保持“纸上谈兵”,即纯文本形式,那么它们就需要外部人类用户代表它们行事并报告所提议操作的结果。
我们一起聊聊如何给AI大模型喂数据?
大家好呀,我是飞鱼。 如果我想要大模型学习我的知识,怎么给他数据呢? 数据是大模型的食物,只有喂对了,模型才能更好地学习和成长。
从数据孤岛到智能系统:RAG和知识图谱的协同作用
译者 | 晶颜审校 | 重楼RAG和知识图谱集成可以释放出更大的潜力,实现更深入的理解、推理和准确性。 在当今信息驱动的时代,数据是企业、研究人员和个人的重要资源。 然而,这些数据通常分散在跨系统的孤岛中,它们是非结构化的,并且无法进行有效的分析。
2024 Github 十大最佳 RAG 框架
检索增强生成(RAG)已成为增强大型语言模型能力的一项强大技术。 RAG 框架结合了基于检索的系统和生成模型的优势,可以做出更准确、更能感知上下文和更及时的响应。 随着对复杂人工智能解决方案需求的增长,GitHub 上出现了许多开源 RAG 框架,每个框架都具有独特的特性和功能。
腾讯基于 RAG 和 Agent 技术的混元大模型业务落地实践
在本篇文章中,我们将深入探讨腾讯大语言模型在多个业务场景中的应用,特别是如何通过前沿技术提升模型的智能化与用户体验。 首先介绍腾讯大模型的广泛应用场景,如内容生成、智能客服和角色扮演等,并详细解析 RAG(Retrieval-Augmented Generation)技术及其在实际业务中的创新应用,特别是在文档生成和问答系统中的优势。 此外,文章还将探讨 GraphRAG 在角色扮演场景中的应用,如何结合知识图谱优化复杂的知识推理。
2025年企业对AI的期望
AI驱动的变革即将到来,但2025年将是缓慢而稳步进展的一年。 今年,随着更现实的期望占据主导,围绕AI的初步炒作和兴奋已经平息。 对于企业部署而言,这一点尤其明显,因为现有模型的能力与许多业务工作流的复杂性相结合,导致进展比许多人预期的要慢。
自己动手实现一个RAG应用
我们知道 RAG 有两个核心的过程,一个是把信息存放起来的索引过程,一个是利用找到相关信息生成内容的检索生成过程。 所以,我们这个 RAG 应用也要分成两个部分:索引和检索生成。 RAG 是为了让大模型知道更多的东西,所以,接下来要实现的 RAG 应用,用来增强的信息就是我们这门课程的内容,我会把开篇词做成一个文件,这样,我们就可以和大模型讨论我们的课程了。
RAG:让大模型知道更多东西
虽然我们说大模型的特点之一是知识丰富,但这里的知识仅限于通用的知识,也就是网上能够很容易找到的知识。 对于一些特定的知识,比如你所在业务领域的知识,它就一无所知了。 个中缘由,不言而喻,大模型训练时,根本不可能拿到你们公司的数据。
Elasticsearch虽好,但矢量数据库才是未来
作者 | Jiang Chen译者 | 布加迪审校 | 重楼出品 | 51CTO技术栈(微信号:blog51cto)几十年来,以Elasticsearch为代表的关键词匹配(又称为全文搜索)一直是企业搜索和推荐引擎等信息检索系统的默认选择。 随着基于人工智能的搜索技术不断进步,如今企业组织在向语义搜索转变,从而使系统能够理解用户查询背后的含义和意图。 嵌入模型和矢量数据库已成为这一转变的核心。
【RAG】浅看引入智能信息助理提升大模型处理复杂推理任务的潜力-AssisTRAG
AssisTRAG通过集成一个智能信息助手来提升LLMs处理复杂推理任务的能力。 该框架由两个主要组件构成:一个冻结的主语言模型和一个可训练的助手语言模型。 AssisTRAG与之前的RAG对比1.
没有思考过 Embedding,谈何 RAG,更不足以谈 AI大模型
今天,我们来聊聊 AI 大模型,有一个非常重要概念 "Embedding"。 你可能听说过它,也可能对它一知半解。 如果你没有深入了解过 Embedding,那你就无法真正掌握 RAG 技术,更不能掌握 AI 大模型精髓所在。
LLM-R:基于RAG和层次化Agent落地案例解析
在这个由智能设备主导的时代,维护工作的重要性愈发凸显,几乎成了生产活动的守护神。 想象一下,当一台精密的机器在深夜突发故障,而维护手册却像天书一样难以理解,这时,交互式电子技术手册(IETMs)就像一束温暖的灯塔,指引着维护人员安全渡过难关。 面对从图形用户界面(GUIs)到自然语言用户界面(LUIs)的转变,以及复杂逻辑关系的梳理,传统的IETMs显得有些力不从心。
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI绘画
大模型
AI新词
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
智能体
技术
Gemini
英伟达
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
代码
AI for Science
苹果
算法
腾讯
Agent
Claude
芯片
Stable Diffusion
具身智能
xAI
蛋白质
开发者
人形机器人
生成式
神经网络
机器学习
AI视频
3D
RAG
大语言模型
字节跳动
Sora
百度
研究
GPU
生成
工具
华为
AGI
计算
大型语言模型
AI设计
生成式AI
搜索
视频生成
亚马逊
AI模型
DeepMind
特斯拉
场景
深度学习
Transformer
架构
Copilot
MCP
编程
视觉