AI在线 AI在线

LangGraph

RAG 不止能检索!它还能在 LangGraph 中当“工具调用大脑”

Retrieval-Augmented Generation(RAG)是一种结合信息检索和大型语言模型(LLMs)来回答用户查询的方法。 传统上,这涉及将检索器直接连接到生成流水线。 然而,通过 LangGraph 和 LangChain,我们可以进一步模块化这个过程,将检索器暴露为一个可调用的工具。
9/3/2025 1:45:00 AM
AI研究生

LangGraph结构化输出详解:让智能体返回格式化数据

引言在使用大语言模型进行开发时,我们经常需要模型返回特定格式的数据,而不是纯文本。 比如在构建AI应用时,我们可能需要模型返回JSON格式的数据用于后续处理,或者返回符合特定数据结构的对象。 这就是结构化输出的价值所在。
9/2/2025 1:25:00 AM
ChallengeHub

使用Django和LangGraph构建一个对话式AI应用程序

译者 | 布加迪审校 | 重楼每个人都见过聊天机器人的实际应用,有些令人印象深刻,有些令人厌烦。 然而,如果你可以创建一个真正智能、组织良好且易于与你自己的应用程序集成的聊天机器人,会怎样呢? 我们在本文中将使用两个强大的工具从零开始构建一个聊天机器人:除了LLM外,LangGraph 可以帮助管理井然有序的多步骤工作流程。
7/24/2025 9:08:31 AM
布加迪

内容工作流自动化工具n8n vs LangGraph:哪个更好?

译者 | 李睿审校 | 重楼创建内容可能耗时费力,但如果采用合适的工具,这一过程会变得轻松得多。 n8n和LangGraph是两款功能强大的内容工作流自动化和增强工具。 n8n提供了可视化的无代码界面,非常适合快速直观地构建工作流,而LangGraph更适合希望使用LLM创建逻辑的开发人员。
6/30/2025 8:31:08 AM
李睿

结合LangGraph、DeepSeek-R1和Qdrant 的混合 RAG 技术实践

一、引言:混合RAG技术的发展与挑战在人工智能领域,检索增强生成(RAG)技术正成为构建智能问答系统的核心方案。 传统RAG通过向量数据库存储文档嵌入并检索相关内容,结合大语言模型(LLM)生成回答,有效缓解了LLM的“幻觉”问题。 然而,单一的稠密向量检索(如基于Transformer的嵌入模型)在处理关键词匹配和多义词歧义时存在局限性,而稀疏向量检索(如BM25)虽擅长精确关键词匹配,却缺乏语义理解能力。
6/6/2025 3:11:00 AM
大模型之路

Agno框架介绍:用于构建多模态智能体的轻量库

译者 | 核子可乐审校 | 重楼在开发代理式AI时,开发者往往需要在速度、灵活性和资源利用率间反复权衡。 本文将向大家介绍Agno——一款用于构建多模态智能体的轻量化框架。 其速度号称比LangGraph快上万倍,内存使用量则仅为1/50。
4/14/2025 10:58:53 AM
核子可乐

我们如何构建了一个LangGraph代理以确定GitOps漏洞的优先级?

译者 | 布加迪审校 | 重楼一款基于LangGraph的开源工具可帮助你确定在特定的Kubernetes环境中最需要优先解决的漏洞。 在当今复杂的Kubernetes环境中,管理漏洞并确定优先级很快会变得令人不堪重负。 由于数十甚至数百个容器跨多个服务运行,你如何决定先处理哪些漏洞?
4/3/2025 8:33:59 AM
布加迪

LangGraph:如何用“图思维”轻松管理多Agent协作?

引言当AI任务变得复杂时,我们需要更好的“调度员”。 随着智能应用场景的深化,单一 Agent 在处理复杂任务(如电商智能客服、金融数据分析流水线)时显现出明显局限性。 传统链式调用框架(如 LangChain)依赖开发者手动编排流程,在面对任务分支、动态决策和资源复用等场景时,往往陷入维护成本高、扩展性差的困境。
4/1/2025 8:48:34 AM
张张

内存革命!LangGraph 0.3.19如何实现Python内存使用效率的飞跃?

在构建复杂 AI 应用或大规模分布式系统时,内存管理始终是开发者面临的痛点。 尤其在 Python 生态中,动态类型和垃圾回收机制虽然灵活,但对内存的高效利用提出了更高要求。 近日,LangGraph 团队宣布推出 0.3.19 版本,通过一系列内存优化技术,将 Python 应用的内存占用降低 40% 以上,并支持长期记忆存储,彻底解决了复杂场景下的性能瓶颈。
4/1/2025 12:33:03 AM
智Echo
  • 1