LLM
多智能体系统不是银弹
一、背景介绍可以了解到多智能体系统,正是通过独特的架构设计,让 AI 突破单智能体的能力边界,实现更复杂的任务协作。 多智能体组成虚拟团队,模拟人类专业协作模式,以解决超越单智能体能力边界的复杂问题。 image.png在众多多智能体框架中,LangGraph 的多智能体架构设计极具代表性,堪称实践典范。
8/26/2025 9:14:26 AM
架构精进之路
告别固定分块!2024 EMNLP 新方法 LumberChunker:用 LLM 实现动态语义分块,检索效果显著提升
在大语言模型(LLM)主导的现代 NLP 领域,密集检索已成为问答、摘要、知识问答等任务的核心支撑 —— 毕竟模型再强大,也需要精准的外部上下文来避免 “幻觉”、获取最新信息。 但检索效果的好坏,往往卡在一个容易被忽视的环节:文本分块。 传统分块方法(按句子、段落或固定长度切割)就像用尺子机械丈量文本,完全忽略了内容的语义关联性:要么把一个完整的概念拆得七零八落,导致检索片段上下文残缺;要么把多个无关主题硬塞进一个块里,引入大量噪声。
8/25/2025 8:59:13 AM
Goldma
运用轻量化大语言模型:实现事件响应加速与幻觉抑制双重突破
墨尔本大学和伦敦帝国理工学院的研究人员开发了一种利用大语言模型(LLM)改进事件响应规划的方法,重点在于降低产生幻觉的风险,该方法采用经过微调的小型大语言模型,并结合检索增强生成技术和决策理论规划。 他们所针对的问题十分常见:目前事件响应在很大程度上仍依赖人工操作,速度缓慢,且依赖专家配置的应急预案。 许多企业需要数周甚至数月才能从事件中完全恢复。
8/25/2025 7:00:00 AM
Mirko Zorz
大模型的基石:LLM预训练全解析
前言过去几年,大语言模型(LLM, Large Language Models)逐渐成为人工智能领域的核心驱动力。 从GPT到LLaMA,再到国内外涌现的大大小小模型,它们无一不是在“预训练”这一步骤中打下了坚实的基础。 可以说,预训练是LLM的生命起点,是它们从“婴儿”成长为“博学者”的关键阶段。
8/24/2025 9:24:07 AM
AI大模型应用开发
2025 年过半,RAG 领域进展如何?这份报告为你深度解析
2025 年已经过半,在 LLM 领域,RAG(检索增强生成)技术一直是备受关注的焦点。 近期,RAGFlow 团队发布了 2025 年过半的 RAG 进展报告下面来详细看下。 1、RAG 与智能体的关系被误读的 "智能体化 RAG"2025 年 AI 圈最热闹的话题莫过于智能体系统,随之而来的 "智能体无需 RAG" 论调一度引发行业困惑。
8/22/2025 9:36:04 AM
Goldma
GPT-5点赞!八大顶尖机构发布「自进化智能体」全面综述
LLM驱动的AI智能体已展现出惊人潜力:它们以LLM为核心,集成感知模块(处理文本/图像/音频/视频)、规划模块(如链式思考CoT或树式思考ToT)、记忆模块(短期上下文存储与长期知识检索)和工具模块(调用API如搜索引擎或代码执行器)。 在单智能体系统中,这些组件协同工作,处理从网页导航、代码生成、投资辅助到生物医学分析的任务。 而在多智能体系统(MAS)中,智能体间通过协作(如辩论或任务分解)攻克复杂问题,模拟人类团队的群体智能。
8/21/2025 2:14:17 PM
新智元
USENIX Security 25 | TEE+Legacy GPU混合算力下的模型隐私安全攻防
近日,字节跳动安全研究团队、北京大学和伊利诺伊大学香槟分校合作的研究论文《Game of Arrows: On the (In-)Security of Weight Obfuscation for On-Device TEE-Shielded LLM Partition Algorithms》被安全领域国际顶会USENIX Security收录。 USENIX Security 会议是网络与信息安全领域的四大顶级会议之一,也是中国计算机学会推荐的网络与信息安全领域A类国际学术会议。 该会议享有广泛的学术影响和深厚的学术底蕴,近五年平均录用率约为20%。
8/21/2025 2:05:07 PM
字节跳动技术团队
dLLM的「Free Lunch」!浙大&蚂蚁利用中间结果显著提升扩散语言模型
本文第一作者王文,浙江大学博士生,研究方向是多模态理解与生成等。 本文通讯作者沈春华,浙江大学求是讲席教授,主要研究课题包括具身智能、大模型推理增强、强化学习、通用感知模型等。 近年来,扩散大语言模型(Diffusion Large Language Models, dLLMs)正迅速崭露头角,成为文本生成领域的一股新势力。
8/20/2025 12:38:26 PM
ICCV 2025 | 跨越视觉与语言边界,打开人机交互感知的新篇章:北大团队提出INP-CC模型重塑开放词汇HOI检测
本文的第一作者为北京大学王选计算机研究所博士生雷廷,通讯作者为博士生导师刘洋。 团队近年来在 TPAMI、CVPR、ICCV、ICML 等顶会上有多项代表性成果发表,多次荣获多模态感知和生成竞赛冠军,和国内外知名高校、科研机构广泛开展合作。 目前的 HOI 检测方法普遍依赖视觉语言模型(VLM),但受限于图像编码器的表现,难以有效捕捉细粒度的区域级交互信息。
8/20/2025 9:13:00 AM
揭秘扩散模型:深入了解DALL-E和Midjourney背后的技术
译者 | 布加迪审校 | 重楼本文介绍了最流行的图像生成模型架构之一的技术层面。 近年来,生成式AI模型已成为一颗冉冉升起的新星,尤其是随着ChatGPT等大语言模型(LLM)产品闪亮登场。 这类模型使用人类能够理解的自然语言,可以处理输入,并提供合适的输出。
8/20/2025 7:47:19 AM
布加迪
如何训练你的大型语言模型
打造一个听起来很智能的大型语言模型 (LLM) 助手,就像在反复塑造泥塑一样。 你从一块泥土开始,把它挤压成一个可行的结构,然后开始精雕细琢,直到最终成品。 越接近最终成品,那些精妙的点缀就越重要,正是这些点缀决定了最终成品是杰作还是恐怖谷效应。
8/19/2025 10:10:46 AM
晓晓
大模型给自己当裁判并不靠谱!上海交通大学新研究揭示LLM-as-a-judge机制缺陷
大语言模型(LLM)正从工具进化为“裁判”(LLM-as-a-judge),开始大规模地评判由AI自己生成的内容。 这种高效的评估范式,其可靠性与人类判断的一致性,却很少被深入验证。 一个最基础、却也最关键的问题是:在评判一个模型是否“入戏”之前,AI裁判能准确识别出对话中到底是谁在说话吗?
8/18/2025 9:00:00 AM
OpenAI回归开源:gpt-oss-120b和gpt-oss-20b完整指南
译者 | 陈峻审校 | 重楼本文将向你介绍OpenAI新发布的两个开源模型--gpt-oss-120b和gpt-oss-20b,它们的特点,以及在何种场景下该使用哪个模型。 近期,OpenAI发布了两个开源的大语言模型(LLM)--gpt-oss-120b和gpt-oss-20b。 它们是自GPT-2以来,由OpenAI第一个公开许可的LLM。
8/15/2025 8:17:41 AM
陈峻
突袭GPT-5!Claude甩出百万上下文王炸!开发者吵翻:超出LLM极限,贵还没价值?谷歌大佬分享:用好上下文的四个编程技巧
编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)深夜更新! Claude Sonnet 4 已经支持百万级上下文窗口了! 这次升级,将上下文从原本的 20 万 Token 一口气提升 5 倍——百万上下文究竟有多大?
8/13/2025 1:38:08 PM
伊风
CoT 的边界:模式匹配还是逻辑推理?数据分布如何决定CoT的成败
大家好,我是肆〇柒。 思维链,可能是大家刚接触“本届模型”(transformer 为架构的 LLM),学 prompt 时的一个必修课,大语言模型可以仿照人的链式思考模式来生成推理链,以辅助推理和解决问题。 我看到一个研究论文,它从数据分布视角,深入剖析了大型语言模型(LLM)思维链(CoT)推理的本质,还挺有意思的,对我们理解 CoT 和模型推理边界,具有原理级的认知帮助。
8/13/2025 10:21:50 AM
肆零柒
如何在你的计算机上运行OpenAI新的gpt-oss-20b LLM?
译者 | 布加迪审校 | 重楼你只需要24GB 的内存,除非你的GPU自带VRAM,否则需要相当的耐心。 上周,OpenAI发布了两款流行的开放权重模型,均名为gpt-oss。 由于你可以下载它们,因此可以在本地运行。
8/13/2025 7:25:57 AM
布加迪
告别上下文溢出:MemTool如何优化LLM智能体的工具记忆管理
大家好,我是肆〇柒。 近期,普华永道(PricewaterhouseCoopers)商业技术与创新办公室的研究团队在LLM智能体技术领域取得了一些成果,他们提出的MemTool框架为解决多轮对话中动态工具调用的短期记忆管理问题提供了系统性解决方案。 关键发现包括:推理型LLM在自主代理模式下可实现90-94%的工具移除效率工作流和混合模式实现了跨模型一致的高移除效率(90% )工具移除效率与任务完成率存在解耦特性,需根据场景权衡选择系统提示工程和模型选择对MemTool性能有决定性影响在构建智能对话系统时,你是否遇到过这样的困扰:当LLM 智能体与用户进行多轮对话时,随着对话轮次增加,系统不断加载新工具却无法有效清理旧工具,导致上下文窗口迅速饱和,最终影响对话质量和系统稳定性?
8/8/2025 2:06:48 PM
肆零柒
Self-Play Critic:以“对抗博弈”创新大语言模型推理评估
大家好,我是肆〇柒。 今天,我想和大家聊一项创新的评估思路——Self-Play Critic(SPC)。 大型语言模型(LLM)目前已成为我们生活和工作中不可或缺的工具。
8/8/2025 3:00:00 AM
肆零柒
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
大模型
机器人
数据
AI新词
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
技术
智能体
Gemini
马斯克
Anthropic
英伟达
图像
AI创作
训练
LLM
论文
代码
算法
苹果
AI for Science
Agent
Claude
芯片
腾讯
Stable Diffusion
蛋白质
开发者
具身智能
xAI
生成式
神经网络
机器学习
3D
人形机器人
AI视频
RAG
大语言模型
研究
百度
Sora
生成
GPU
工具
华为
计算
字节跳动
AGI
大型语言模型
AI设计
搜索
生成式AI
视频生成
DeepMind
特斯拉
场景
AI模型
深度学习
亚马逊
架构
Transformer
MCP
编程
视觉
预测