RAG
“逆天”研究!Cursor 与 Windsurf 背后的核心算法机制曝光!网友惊呼:Cursor代码总出Bug的原因找到了
编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)Vibe coding正火得一塌糊涂,但谁能想到,刚刚一位大佬已经把当红的AI编程神器Cursor和Windsurf背后的核心算法机制研究出来了! 今天凌晨,一位名为Nir Diamant的技术大牛发表了一篇高质量神文,可以说把Cursor和Windsurf的核心算法说得非常透彻,就像玩抖音的需要了解抖音推荐算法一样,正在Vibe Coding的我们,当然也得快速吃透跟自己对话的编程助手,究竟是怎样一个思维回路。 非常细节,值得各位收藏细读一番。
探索RAG数据分块策略:工具对比与实践指南(含code)
在检索增强生成(Retrieval-Augmented Generation, RAG)应用领域,数据分块作为关键预处理步骤,对模型性能和效果起着决定性作用。 本文深入探讨RAG应用中的数据分块策略,详细介绍和对比LangChain、LlamaIndex和Preprocess三种主流工具在数据分块方面的功能与特点,并结合实际案例分析其应用效果,为读者提供全面的技术指引。 RAG中数据分块的重要性RAG通过检索相关信息来增强语言模型的生成能力,数据分块则是优化这一过程的关键。
通用RAG:通过路由模块对多源异构知识库检索生成问答思路
如何在多个语料库(多源异构知识库,如:文本、图片、视频)中检索和整合来自不同模态和粒度的知识? UniversalRAG:一个多模态RAG框架,用于从多个模态和粒度的语料库中检索和整合知识。 下面来看看思路,供参考。
RAG知识库只是表面简单!
你有没有想过,为什么同样是AI问答系统,有些答案精准如手术刀,有些却像老人家的唠叨? 当我们说"把文档丢进Dify就能搞定RAG"时,工程师们默默翻了个白眼——因为他们知道,真正的魔法发生在幕后。 RAG:表面简单,内核复杂前几天,产品经理小张兴冲冲地来找我:"我发现了个神器叫Dify,听说只要把公司文档灌进去,就能搭建一个智能客服。
告别碎片化!两大先进分块技术如何提升RAG的语义连贯性?
研究动机论文核心问题及研究背景分析1. 研究领域及其重要性研究领域:检索增强生成(Retrieval-Augmented Generation, RAG)系统,结合自然语言处理(NLP)与信息检索技术。 重要性:RAG通过动态整合外部知识,解决了传统大语言模型(LLMs)依赖静态预训练数据的局限性。
从RAG到QA-RAG:整合生成式AI以用于药品监管合规流程
图片引言聊天机器人的进步近期生成式AI的进展显著增强了聊天机器人的能力。 这些由生成式人工智能驱动的聊天机器人在各个行业中的应用正在被探索[Bahrini等人,2023年;Castelvecchi,2023年;Badini等人,2023年],其中制药行业是一个显著的关注领域。 在药物发现领域,最近的研究表明,由生成式人工智能驱动的聊天机器人在推进药物发现方面可以发挥重要作用[Wang等人,2023年;Savage,2023年;Bran等人,2023年]。
RAG技术:优化知识库,解决AI答非所问
在AI大模型席卷全球的今天,Retrieval-Augmented Generation(RAG,检索增强生成)作为一种融合检索与生成的技术,正成为企业和开发者提升AI能力的核心工具。 然而,许多用户在使用RAG时却发现,AI的回答常常“答非所问”,甚至“驴唇不对马嘴”。 究其原因,问题往往出在文档处理不当。
RAG 中的语义分块:实现更优的上下文检索
检索增强生成(RAG)技术异军突起,席卷了整个大语言模型领域。 通过将大语言模型(LLMs)的强大能力与外部知识检索相结合,RAG使得模型能够生成准确且有依据的回复,即便在专业领域也不例外。 在每一个表现卓越的RAG流程背后,都有一个默默发挥关键作用的 “英雄”:分块技术,尤其是语义分块。
五种RAG分块策略详解 + LlamaIndex代码演示
先前文章中提到,不断优化原始文档解析和分块策略是控制变量法下,是提高最后检索效果天花板的务实做法,前面已经介绍了 MinerU vs DeepDoc 在文档解析方面的效果对比。 MinerU vs DeepDoc:集成方案 图片显示优化关于文档解析部分简单的结论是,MinerU 无疑是值得关注和尝试的一个文档解析框架,但具体效果还要结合特定项目文档做仔细横评。 我目前在常规项目中,主要是对照使用 DeepDoc 和 MinerU 两个方法。
如何选择Embedding Model?关于嵌入模型的十个思考
在大模型应用中,尤其基于RAG框架的大模型应用,嵌入模型(embedding Model)是不可或缺的关键组件。 这里总结了笔者在实践中关于潜入模型的10个思考,希望对大家有所帮助。 嵌入模型在RAG中的重要性嵌入模型能够将文本转换成数值形式的向量,这让计算机可以更高效地处理、对比和检索信息。
理解 RAG 第七部分 矢量数据库和索引策略
在 RAG 系统中高效检索知识是提供准确及时响应的关键。 矢量数据库和索引策略在增强 RAG 系统性能方面发挥着至关重要的作用。 本文延续“理解 RAG”系列文章,概念化 RAG 系统中常用的矢量数据库和索引技术。
Adaptive-RAG:让检索增强生成更智能
在人工智能领域,检索增强生成(Retrieval-Augmented Generation,RAG)一直是研究热点。 它通过结合检索和生成技术,为问答系统带来了更强大的性能。 然而,现有的RAG方法并非完美无缺。
理解 RAG 第五部分:管理上下文长度
传统的大型语言模型 (LLM)存在上下文长度限制,这限制了单次用户与模型交互中处理的信息量,这是其主要局限性之一。 解决这一限制一直是 LLM 开发社区的主要工作方向之一,提高了人们对增加上下文长度在生成更连贯、更准确响应方面优势的认识。 例如,2020 年发布的 GPT-3 上下文长度为 2048 个 token,而其更年轻但功能更强大的兄弟 GPT-4 Turbo(诞生于 2023 年)允许在单个提示中处理高达 128K 个 token。
蚂蚁OceanBase 发布全员信:CTO杨传辉担任AI一号位 瞄准AI数据底座
蚂蚁集团旗下分布式数据库OceanBase今日宣布了一项重大人才和组织体系升级,旨在全力保障公司AI战略的高效落地。 OceanBase CEO杨冰在全员信中透露了这一决定。 根据全员信内容,OceanBase CTO杨传辉将担任公司AI战略的“一号位”,全面统筹AI战略的制定以及相关技术和产品的落地实施。
理解 RAG 第四部分:检索增强生成评估框架
检索增强生成(RAG) 在扩展独立大型语言模型(LLM)的局限性和克服其诸多限制方面发挥了关键作用。 通过整合检索器,RAG 增强了响应的相关性和事实准确性:它只需实时利用外部知识源(例如矢量文档库),并在原始用户查询或提示中添加相关的上下文信息,然后将其传递给 LLM 进行输出生成。 对于那些深入 RAG 领域的人来说,一个自然而然的问题出现了:我们如何评估这些远非简单的系统?
揭秘 RAG:为什么说它是让大语言模型(LLM)更聪明的秘密武器?
现在人工智能(AI)很火,尤其是像 ChatGPT 这样的大语言模型(LLM),它们能聊天、写文章、写代码,感觉无所不能。 但有时候,它们也会犯一些小错误,比如信息过时了,或者一本正经地胡说八道(这叫“幻觉”),或者你问它一些你们公司内部的事情,它就完全不知道了。 为了解决这些问题,科学家们想出了一个聪明的办法,叫做RAG。
理解 RAG 第三部分:融合检索与重新排序
我们之前介绍了什么是 RAG、它在大型语言模型 (LLM) 中的重要性,以及 RAG 的经典检索器、生成器系统是什么样的,本系列的第三篇文章探讨了一种构建 RAG 系统的升级方法:融合检索。 在深入探讨之前,值得简要回顾一下我们在本系列第二部分中探讨过的基本 RAG 方案。 融合检索解析融合检索方法涉及在检索增强生成(RAG)系统的检索阶段中融合或聚合多个信息流。
理解 RAG 第二部分:经典 RAG 的工作原理
在本系列的第一篇文章中,我们介绍了检索增强生成 (RAG) ,并解释了扩展传统大型语言模型 (LLM)功能的必要性。 我们还简要概述了 RAG 的核心思想:从外部知识库中检索上下文相关的信息,以确保 LLM 生成准确且最新的信息,而不会产生幻觉,也无需不断地重新训练模型。 本系列的第二篇文章将揭秘传统 RAG 系统运行的机制。
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI绘画
大模型
AI新词
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
智能体
技术
Gemini
英伟达
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
代码
AI for Science
苹果
算法
腾讯
Agent
Claude
芯片
Stable Diffusion
具身智能
xAI
蛋白质
开发者
人形机器人
生成式
神经网络
机器学习
AI视频
3D
RAG
大语言模型
字节跳动
Sora
百度
研究
GPU
生成
工具
华为
AGI
计算
大型语言模型
AI设计
生成式AI
搜索
视频生成
亚马逊
AI模型
DeepMind
特斯拉
场景
深度学习
Transformer
架构
Copilot
MCP
编程
视觉