AI在线 AI在线

LLM

硬核拆解大模型,从 DeepSeek-V3 到 Kimi K2 ,一文看懂 LLM 主流架构

自首次提出 GPT 架构以来,转眼已经过去了七年。 如果从 2019 年的 GPT-2 出发,回顾至 2024–2025 年的 DeepSeek-V3 和 LLaMA 4,不难发现一个有趣的现象:尽管模型能力不断提升,但其整体架构在这七年中保持了高度一致。 当然,细节上仍有不少演进。
8/7/2025 9:40:00 PM
机器之心

硬核拆解大模型,从 DeepSeek-V3 到 Kimi K2 ,一文看懂 LLM 主流架构

自首次提出 GPT 架构以来,转眼已经过去了七年。 如果从 2019 年的 GPT-2 出发,回顾至 2024–2025 年的 DeepSeek-V3 和 LLaMA 4,不难发现一个有趣的现象:尽管模型能力不断提升,但其整体架构在这七年中保持了高度一致。 当然,细节上仍有不少演进。
8/7/2025 9:40:00 PM
机器之心

揭秘大模型的魔法:实现带可训练权重的自注意力机制

大家好,我是写代码的中年人。 上一篇我们实现了一个“无可训练参数”的注意力机制,让每个词都能“看看别人”,计算出自己的上下文理解。 虽然实现起来不难,但它只是个“玩具级”的注意力,离真正的大模型还差了几个“亿”个参数。
8/4/2025 9:31:49 AM
写代码的中年人

全新的AI模型带来更快速的漏洞检测方案

一组研究人员开发出一种名为White-Basilisk的新型AI模型,该模型检测软件漏洞的效率高于许多大型系统。 当前,开发人员和安全团队在保障复杂代码库安全方面面临着越来越大的压力,且往往缺乏部署大规模AI工具的资源,该模型正是在这一背景下发布的。 小模型,大成效与需要数十亿参数和强大计算能力的大型语言模型(LLM)不同,White-Basilisk模型非常紧凑,仅有2亿个参数,然而,在多个用于漏洞检测的公共基准测试中,它的表现优于规模超过其30倍的模型,这至少在专门的安全任务方面,对“模型越大越好”的观点提出了质疑。
8/1/2025 2:38:14 PM
Mirko Zorz

基于Dify动态解析异构银行流水:架构拆解→风控报告生成

两个月前,知识星球中有个关于银行流水分析的提问:想问问对于流水识别是否有比较好的解决方案呢? 我们现在想用大模型能够对多家银行进行识别,但是发现识别准确率很一般,经常出现表格识别数据错乱的情况,而且效率也不太行这个问题在企业信贷的贷前风控场景经常出现,不同银行的流水格式一般有所区别,而且一家企业往往涉及多家银行的账户使用。 这也导致了流水解析和分析工作复杂度确实高很多。
7/31/2025 6:57:27 AM
韦东东

让 Gemini CLI 跑在你的私有大模型上

前不久,Google 开源了 Gemini CLI 工具,它允许用户通过命令行与 Gemini AI 模型进行高效交互。 然而,在实际应用中,出于安全性和成本控制的考虑,很多场景更适合使用本地部署的大语言模型(LLM)。 因此,让 Gemini CLI 支持连接本地 LLM 就显得尤为重要。
7/31/2025 6:45:00 AM
Andflow

Bill Inmon:为什么你的数据湖需要的是 BLM,而不是 LLM

当你尝试使用文本生成 AI 解决结构化数据问题时,你投资的数据湖就变成了‘污水池’ 。 ” —— Bill Inmon根据 Gartner 的研究,85% 的大数据项目都失败了。 2023 年,规模达 152 亿美元的数据湖市场增长了 20% 以上,但大多数企业却无法从文本数据中提取价值。
7/31/2025 3:00:00 AM
晓晓

现代LLM架构设计一览:从DeepSeek-V3到Kimi K2

主要内容现代LLM架构的演进主要围绕以下几个核心目标:提高推理效率:通过GQA、MLA、滑动窗口注意力、MoE等技术减少内存占用和计算量。 增强训练稳定性:通过归一化层(如RMSNorm)的放置和QK-Norm等技术优化训练过程。 优化模型容量与性能:通过MoE实现更大参数量和知识吸收能力,同时保持推理效率。
7/31/2025 1:00:00 AM
常华Andy

LLM记忆终极指南:从上下文窗口到高级智能体记忆系统

当你向聊天机器人报上姓名,片刻后它却再次询问"你叫什么"时,这种数字失忆现象暴露出人工智能的关键短板:大型语言模型(LLMs)本质上是无状态的。 它们像金鱼一样"记不住"过去的对话,每次交互都被视为全新事件。 ChatGPT等应用展现的记忆能力,实则是通过在每轮对话中强行插入历史记录制造的 illusion(假象)。
7/29/2025 12:00:00 AM
大模型之路

谁是Adam?NeurIPS 2025审稿爆年度最大笑话!Hinton也曾被拒稿

这几天,NeurIPS 2025的评审结果,陆续出炉了! 让人措不及防的是,「Who's Adam」明晃晃地出现在了一位作者的审稿建议中,成为近来学术圈最大的笑柄。 究竟是大模型不懂,还是审稿人疏忽了?
7/28/2025 9:14:00 AM

斯坦福大模型推理课免费了,谷歌推理团队创始人主讲

闻乐 发自 凹非寺. 量子位 | 公众号 QbitAI干货来了! 如何理解大模型推理能力?
7/25/2025 4:25:36 PM
闻乐

AgentRM 奖励建模:智能体泛化能力的“导航仪”与“加速器”

大家好,我是肆〇柒。 在 AI 领域,大型语言模型(LLM)基础智能体正逐渐成为解决复杂交互任务的关键力量。 然而,一个不容忽视的问题是:尽管它们在训练中见过的任务上表现出色,但面对未见过的新任务时,泛化能力却往往不尽人意。
7/25/2025 10:06:41 AM
肆零柒

如何从零开始构建Zepto的多语言查询解析系统?

译者 | 李睿审校 | 重楼本文介绍如何从零开始构建Zepto的多语言查询解析系统,该系统利用LLM与RAG技术处理拼写错误及方言查询问题。 通过复制从模糊查询到修正输出的端到端流程,可以解释这一技术在提升搜索质量与多语言查询处理中的核心作用。 你用过Zepto在网上订购杂货吗?
7/24/2025 7:42:08 AM
李睿

多模态大语言模型(LLM) 和视频语言预训练的关键进展、应用、数据集和方法

随着视频应用的发展,大量视频被上传到网上。 因此,如何利用视频及其对应的弱字幕进行表征学习成为近期的热门话题。 本文将回顾大规模视频语言预训练任务的最新进展、后续应用、基础数据集和技术。
7/24/2025 2:00:00 AM
晓晓

AI Agent 协议:未来AI智能生态的基础设施

大家好,我是肆〇柒。 今天想跟大家深入聊聊 AI 智能体协议这个极具前瞻性的话题。 关于智能体协议,我跟了一段时间,发现它就像是打开智能体协作大门的一把钥匙,特别有意思,而且对未来的智能生态影响深远。
7/23/2025 9:21:03 AM
肆零柒

OpenAI被曝IMO金牌「造假」,陶哲轩怒揭内幕!

OpenAI夺下IMO金牌,最新大瓜又来了。 昨日,因内部审核流程,谷歌DeepMind研究员在评论区,暗讽OpenAI抢先发布测试结果。 图片原来,事情并非那么简单。
7/21/2025 11:48:54 AM
新智元

ICML'25 |大模型再爆弱点!旧记忆忘不掉,新记忆分不出,准确率暴降

人们越来越意识到,大语言模型(LLM)里「找信息」这件事,并不是简单地翻字典,而和「写信息」的能力紧紧绑在一起。 一般认为,给模型塞入更长的上下文就能让它找得更准,不过上下文内部存在「互相干扰」,但这种现象却很少被研究。 为了看清这个问题,弗吉尼亚大学和纽约大学神经科学中心研究人员借用了心理学里的「前摄干扰」(proactive interference)概念:先出现的信息会妨碍我们回忆后来更新的内容。
7/21/2025 9:09:00 AM

数据治理对人工智能的成功至关重要

自 ChatGPT 发布以来,大语言模型 (LLM) 已进入主流,促使各行各业和公司纷纷探索其在业务转型中的潜力。 此后,许多技术应运而生,帮助团队构建更强大的 AI 系统:RAG、向量数据库、重排序器、推理模型、工具使用、MCP、代理框架等等。 这些工具和技术显然很有用;然而,提升 AI 系统业务影响力的最有效方法依然是数据。
7/21/2025 8:19:13 AM
晓晓