AI在线 AI在线

架构

万字长文详解腾讯优图RAG技术的架构设计与创新实践

导语在信息爆炸的时代,如何从海量数据中精准获取知识并生成智能回答,已成为AI落地的核心挑战。 腾讯优图实验室凭借前沿的RAG体系,突破传统检索与生成的局限,打造了一套覆盖语义检索、结构化表检索、图检索的全栈解决方案。 本文将为你深度解析优图实验室RAG技术的架构设计与创新实践:从多阶段训练的2B级Embedding模型、Reranker分层蒸馏,到结构化表的智能解析与查询,再到自研GraphRAG框架在构图效率与复杂推理上的突破。
9/12/2025 3:50:54 PM
优图RAG技术

生产级AI智能体架构指南:从Demo惊艳到落地可靠

在AI领域,单提示词演示(Single-prompt demos)总是令人眼前一亮,但真正的生产落地却充满挑战。 坦白而言,即便最出色的大型语言模型(LLM)能在演示中大放异彩,现实世界对AI系统的要求远比这更高——用户需要足以支撑业务决策的精准结果,管理者要求清晰可追溯的审计记录,运维团队则需要能有效控制成本与延迟的调节手段。 问题的核心在于那种“大包大揽”的单提示词模式:它就像一个黑箱,将规划、执行与质量控制揉合成一团模糊的整体,不仅脆弱易故障、难以审计,更无法突破概念验证(PoC)阶段实现规模化应用。
9/9/2025 2:11:00 AM
大模型之路

准确率达90%,用户却疯狂弃用,一遇问题转人工,AI客服竟比电话语音还糟!大牛发文痛斥:能力≠采纳!四层架构让Agent无AI感

编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)上周,我和一位最近刚上线 AI Agent 的 PM 聊天。 指标看上去非常亮眼:89% 的准确率、毫秒级的响应、用户调研反馈积极。 但实际情况却很打脸,上线没多久,用户纷纷弃用了。
9/5/2025 1:06:00 PM
云昭

理论到实战,高可用架构踩坑说明书

在构建高可用系统时,开发者常常面临应用、数据库、缓存、消息队列等多维度的挑战。 本文结合京东真实技术场景,系统梳理高可用架构实践中常见的技术陷阱与解决方案,深入剖析每个技术组件的可用性保障要点。 旨在为工程师提供一套踩坑说明书,帮助团队在系统设计阶段规避潜在风险,提升线上系统的稳定性和容错能力。
9/5/2025 1:25:00 AM

揭秘Mem0的卓越架构:打造真正拥有记忆的AI系统

在人工智能应用迅猛发展的当下,聊天机器人已成为企业服务用户、个人提升效率的重要工具。 然而,许多开发者都遭遇过这样的尴尬场景:花费数周精心打造的聊天机器人在演示时表现出色,能流利回答问题、提供帮助,看似智能十足。 但当用户次日再次访问时,机器人却仿佛患上了“失忆症”,只会机械地问“今天我能为您提供什么帮助?
8/28/2025 7:52:17 AM
大模型之路

刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

英伟达最近真的痴迷上「小模型」了。 刚刚,英伟达发布了一个全新的混合架构语言模型系列,Jet-Nemotron。 论文地址::。
8/26/2025 3:31:35 PM

DeepSeek一句话让国产芯片集体暴涨!背后的UE8M0 FP8到底是个啥

DeepSeek V3.1发布后,一则官方留言让整个AI圈都轰动了:新的架构、下一代国产芯片,总共短短不到20个字,却蕴含了巨大信息量。 国产芯片企业股价也跟风上涨,比如寒武纪今日早盘盘中大涨近14%,总市值跃居科创板头名。 半导体ETF,同样也是在半天的时间里大涨5.89%。
8/22/2025 3:51:22 PM

GPT 4o-mini华人领队离开OpenAI:真正推动AI进步不是模型架构,而是互联网

刚刚,OpenAI又离职一名华人大佬。 前OpenAI研究员Kevin Lu宣布加入AI新创Thinking Machines Lab。 Kevin Lu主导了GPT-4o mini的发布,并参与o*-mini、o3等模型工作。
8/19/2025 3:58:59 PM

硬核拆解!从GPT-2到gpt-oss,揭秘大模型进化关键密码

8月5日,在GPT-5发布前两天,OpenAI推出了它的两款开源权重大语言模型:gpt-oss-120b、gpt-oss-20b。 这是自2019年GPT-2,近六年来OpenAI首次发布开放权重的模型。 得益于巧妙的优化技术,这些模型甚至可以在本地设备上运行。
8/18/2025 9:15:00 AM

字节&MAP重塑大模型推理算法优化重点,强化学习重在高效探索助力LLM提升上限

强化学习(RL)范式虽然显著提升了大语言模型(LLM)在复杂任务中的表现,但其在实际应用中仍面临传统RL框架下固有的探索难题。 一个普遍存在的现象是:在训练过程中,模型的熵值迅速下降,推理路径趋于固化,导致“利用(exploitation)”远超“探索(exploration)”,严重失衡。 这种过早收敛不仅削弱了模型的多样性生成能力,也限制了其性能上限的进一步突破。
8/8/2025 9:02:00 AM

AI Agent的工作原理和架构

大家好,我是人月聊 IT。 今天聊AI智能体的工作原理,既然谈AI工作原理,刚好就让AI自己来做回答。 参考提示词:如果要描述一个事物或一个系统的工作原理,我的核心思路就是要打开事物内部,看事物内部由哪些组件组成,这些组件之间是如何交互和协同的,最终对我展示了某种输出或行为特征。
8/4/2025 2:55:00 AM
何明路

现代LLM架构设计一览:从DeepSeek-V3到Kimi K2

主要内容现代LLM架构的演进主要围绕以下几个核心目标:提高推理效率:通过GQA、MLA、滑动窗口注意力、MoE等技术减少内存占用和计算量。 增强训练稳定性:通过归一化层(如RMSNorm)的放置和QK-Norm等技术优化训练过程。 优化模型容量与性能:通过MoE实现更大参数量和知识吸收能力,同时保持推理效率。
7/31/2025 1:00:00 AM
常华Andy

四款扩散大语言模型全部破防?上交&上海AI Lab发现致命安全缺陷

扩散语言模型(Diffusion-based LLMs,简称 dLLMs)以其并行解码、双向上下文建模、灵活插入masked token进行解码的特性,成为一个重要的发展方向。 相较传统的自回归语言模型,dLLMs 既可以一次性生成多个位置的词,也能更自然地完成文本插入、改写、补全等任务,被广泛应用于交互式问答、代码生成、甚至多模态场景。 但在这股看似技术跃迁的浪潮背后,一场潜藏的安全危机正在酝酿:能否继续沿用自回归模型的对齐与防护机制,保障dLLM的输出安全?
7/24/2025 9:15:00 AM

Meta开源创新大模型架构AU-Nets

在大模型领域,如何将文本数据分解成合适的单元一直是重点研究对象。 传统的分词方法,如Byte Pair Encoding等,会预先将文本分割成固定粒度的单元,然后构建一个静态的词汇表供模型使用。 但这种方法存在诸多局限性,一旦分词完成,模型在后续处理中就只能局限于这些预设的单元,无法灵活地调整对数据的处理方式和预测范围;另一方面,对于一些低资源语言或者具有特殊字符结构的文本,这种固定分词方式往往难以有效处理,限制了模型的泛化能力和应用范围。
7/23/2025 9:10:00 AM

Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了

就在刚刚,KAIST、Mila和谷歌DeepMind团队等放出重磅炸弹——一个名为Mixture-of-Recursions的全新LLM模型架构。 这个崭新的架构,被业内认为有潜力成为Transformer杀手! 它的推理速度提升2倍,训练FLOP减少,KV缓存内存直接减半。
7/17/2025 1:05:35 PM

彻底改写Transformer!「能量驱动架构」横空出世,通用推理时代要来了?

在Transformer统治AI世界十余年之后,Attention的时代正在退场,真正的思考刚刚开始——由UIUC、斯坦福、哈佛等顶尖机构联合提出的Energy-Based Transformer(EBT)震撼登场。 它首次将Transformer架构引入能量建模(Energy-Based Models, EBM)框架,彻底打破「前馈即推理」的旧范式。 图片论文链接:,也不是RNN的改进,而是一种彻底不同的推理机制:模型不再一次性「说完答案」,而是像人类一样从模糊猜测出发,逐步优化推理路径。
7/15/2025 2:00:00 AM
新智元

开源DeepSeek R1增强版:推理效率快200%,创新AoE架构

德国知名技术咨询公司TNG开源了DeepSeek R1的增强版DeepSeek-TNG-R1T2-Chimera。 Chimera是基于DeepSeek的R1-0528、R1和V3-0324三大模型混合开发而成,同时采用了一种全新的AoE架构。 这种架构在提升性能的同时,还能加快模型的推理效率并节省token输出。
7/4/2025 9:08:00 AM

你的RAG系统安全么?

生成式人工智能(GenAI)近年来发展迅速,大语言模型成为这一浪潮的核心力量。 无论是商业还是开源模型,它们都具备强大的语言理解与生成能力,正广泛应用于内容创作、聊天机器人等场景,让企业更容易落地智能应用。 但一个关键挑战是如何让这些通用的 LLM 更懂特定领域,同时保持知识的时效性。
7/1/2025 9:36:42 AM
曹洪伟