大模型
当大模型“思考”时,它在做什么?—解构 LLM 架构体系
Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 构建大模型应用架构技术底座:LLM 架构体系。 在人工智能技术快速演进的时代背景下,大语言模型(Large Language Models, LLMs)作为自然语言处理领域的核心架构,正逐步重塑人机交互的技术范式。 从智能对话系统到内容生成平台,从复杂决策支持到跨语言信息处理,LLM 已成为现代人工智能基础设施中不可或缺的组成部分。
历史性突破!中国AI首登《自然》封面,DeepSeek重新定义大模型标准
一个明显的趋势是,中国在AI基础研究领域正在从"跟跑者"悄然转变为"领跑者"。 而这一转变的标志性事件,就是昨天DeepSeek-R1研究论文登上《自然》封面这件事。 说实话,当我看到这个消息的时候,第一反应是有点震撼。
OpenAI 回归机器人:想把大模型推向物理世界
在暂停数年后,OpenAI 正将研究与招聘资源重新投向“具身智能”,并把焦点进一步推向人形系统。 多份权威报道、公开招聘信息与产业动向交叉印证:这家以大模型闻名的公司,正在搭建一个面向现实世界的机器人研发矩阵。 图片WIRED 9 月 15 日的报道,OpenAI 近来密集招募具有人形机器人与物理控制算法背景的科研人才,并在训练路径上强调遥操作(teleoperation)与仿真(包括 Nvidia Isaac 等工具);公司是否自建硬件或与外部制造商合作仍未明朗,但“人形形态”的研究正在加速推进。
突破单链思考上限,清华团队提出原生「并行思考」scale范式
近年来,大语言模型(LLMs)在复杂推理任务上的能力突飞猛进,这在很大程度上得益于深度思考的策略,即通过增加测试时(test-time)的计算量,让模型生成更长的思维链(Chain-of-Thought)。 然而,这条路径正面临着一个明显的瓶颈:随着计算资源的持续投入,性能提升变得微乎其微,甚至陷入停滞。 来自清华大学 AIR 的一篇最新研究论文《ParaThinker: Native Parallel Thinking as a New Paradigm to Scale LLM Test-time Compute》对这一瓶颈发起了挑战 。
上海加速医疗器械领域 AI 技术应用,助力高端产业全链条发展
人工智能开源生态正在经历一场前所未有的变革洗礼。 蚂蚁集团在外滩大会上重磅发布的大模型开源开发全景与趋势2.0版本,如同一面镜子,清晰映射出这个快速演进领域的真实面貌。 这份全景图的诞生并非简单的数据堆砌,而是通过严谨的OpenRank评价体系精心筛选的结果。
人格陷阱:AI如何假装人类
译者 | 核子可乐审校 | 重楼最近有个趣闻:一位女士在邮局排队时跟工作人员争执起来,原因是ChatGPT说邮政网站上公布了“保价承诺”,但实际上这只是AI的幻觉。 而相较于信任面前的邮政人员,这位女士显然更相信AI的建议——AI在她眼中不只是文本生成器,更像是“带来神谕的使者”。 也就是说,很多人对于AI聊天机器人存在着根本性误解。
微软加码自研大模型:不把鸡蛋放在OpenAI一个篮子里
近日,微软(MSFT.US)宣布一项重大战略举措 —— 豪掷重金扩大物理基础设施,加码自研 AI 模型开发。 这一动作引发行业广泛关注,毕竟微软长期以来深度依赖 OpenAI 的大型语言模型支撑自身产品生态。 为何微软选择在与 OpenAI 保持合作的同时,大力推进自研大模型?
AI解数学题只靠最后一个token
henry 发自 凹非寺. 量子位 | 公众号 QbitAI大语言模型在解心算题时,只依赖最后一个token? 最近,来自加州大学圣克鲁兹分校、乔治·梅森大学和Datadog的研究人员发现:在心算任务中,几乎所有实际的数学计算都集中在序列的最后一个token上完成,而不是分散在所有token中。
迎战软件3.0时代:新范式、新挑战、新工程
我们正处在一个技术范式剧烈变革的黎明。 从企业信息化的流程固化,到互联网时代的数据驱动,软件的形态和价值在不断演进。 如今,以大语言模型(LLM)为代表的生成式人工智能技术,正以前所未有的力量,将我们推向一个全新的纪元——Software 3.0(软件3.0),一个由“意图”驱动的智能化时代。
聚焦结构化注意力,探索提升多模态大模型文档问答性能
本文聚焦多模态大语言模型(MLLMs)在文档问答(DocQA)任务中的性能提升,提出无需改动模型架构或额外训练的结构化输入方法,通过保留文档层次结构与空间关系(如标题、表格、图像位置)优化理解能力。 研究发现,传统无结构OCR输入导致注意力分散,性能下降,而 LaTeX 范式结构化输入显著提升表现。 注意力分析揭示其诱导“结构化注意力”,减少无关区域干扰,聚焦语义核心。
为什么 LangChain ReAct 机制值得关注 ?
在当前由大型语言模型(LLM)驱动的应用开发浪潮中,如何赋予模型超越文本生成、具备可靠推理与行动的能力,已成为衡量其智能水平的关键分野。 正是在这一背景下,Langchain 框架中的 ReAct(Reasoning and Acting)机制应运而生,并迅速成为业界瞩目的焦点。 ReAct 不仅仅是一种技术实现,更是一种富有远见的智能代理(Agent)设计哲学。
OpenAI最新研究揭秘大模型为什么会有幻觉!
引言:语言模型的“幻觉”难题在人工智能飞速发展的今天,大语言模型(LLMs)如ChatGPT、DeepSeek等已经成为我们日常生活与工作的得力助手。 然而,这些模型有时会“信口开河”,生成看似合理却完全错误的回答,这种现象被学界称为“幻觉”(hallucination)。 例如,当被问及“亚当·卡莱的生日是哪天?
Context (上下文) vs Prompt(提示) Engineering,该如何理解?
在大型语言模型(LLM)兴起的早期,构建 AI 应用更像是一场“炼金术”实验。 开发者们围绕一个核心 API 端点,通过反复调试和优化输入文本——即所谓的“提示工程”(Prompt Engineering),试图从模型这个神秘的“黑箱”中召唤出理想的结果。 这种方式直接、灵活,也确实催生了无数令人惊艳的创意原型。
上海重磅发布AI广告扶持政策:最高500万补贴大模型
上海市近日发布了《上海市支持人工智能赋能广告业创新发展的若干措施》,旨在通过一系列具体的扶持政策,推动人工智能技术在广告行业的深度应用和发展。 核心扶持措施概览新政策的核心在于**“AI 数字广告”生产要素**的强化支持,具体措施包括:大模型私有化部署补贴: 对于采用第三方大模型进行私有化部署,并将其应用于广告垂类领域的数字广告企业,上海市将提供最高可达核定合同额50%,最高500万元的补贴。 语料研发与应用补贴: 鼓励企业购买非关联方的语料进行广告垂类应用和“智能体”等研发。
刚刚,OpenAI发长篇论文:大模型幻觉的原因找到了!
语言模型的"幻觉"问题一直是人工智能领域的热门话题。 近日,OpenAI研究团队发表了一篇重磅论文《Why Language Models Hallucinate》(为什么语言模型会产生幻觉),从统计学角度深入剖析了语言模型产生幻觉的根本原因。 本文将为你详解这篇论文的核心观点和技术细节。
你的 AI “体检”了吗?开源 AI 红队测试平台,一键自查三大风险
作者 | 腾讯朱雀实验室最近的AI圈,简直比好莱坞大片还精彩。 一边是各家的顶尖模型接连发布,技术狂欢席卷全球;另一边,这些看似无所不能的“最强大脑”却集体被成功“越狱”(Jailbreak)输出有害内容。 [大模型们的越狱“一日游”]而当我们回过头看,每个重磅发布的大模型都在经历类似的迅速失守,从23年的DAN(Do Anything Now)、24年的BoN(Best of N)到今年的回音室(Echo Chamber)与模型降级(PROMISQROUTE)攻击,各种新的通用越狱手法层出不穷,而在arXiv上截止到今年7月累计已有七百余篇越狱攻击相关论文。
震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?
一直以来,预训练,都是大模型训练过程中最花钱的部分。 比如,在DeepSeek V3中,它的成本占比就超过95%。 谁能在这里节省算力,就等于赚了。
通用LLM压缩算法,居然藏视频编码里!2.5bit实现4bit性能,硬件无缝支持
在大模型的发展历程中,提升参数规模已被多次证明是提升模型智能的最有效手段之一。 然而,随着模型参数量的增加,GPU内存容量和互联带宽已成为限制未来更大规模模型训练和部署的主要瓶颈。 在有限的硬件资源下,如何更有效地训练和推理更大规模的模型,已成为一个备受关注且具有显著经济价值的课题。
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI新词
AI绘画
大模型
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
英伟达
Gemini
智能体
技术
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
AI for Science
代码
腾讯
苹果
算法
Agent
Claude
芯片
具身智能
Stable Diffusion
xAI
蛋白质
人形机器人
开发者
生成式
神经网络
机器学习
AI视频
3D
字节跳动
大语言模型
RAG
Sora
百度
研究
GPU
生成
华为
工具
AGI
计算
生成式AI
AI设计
大型语言模型
搜索
亚马逊
AI模型
视频生成
特斯拉
DeepMind
场景
Copilot
深度学习
Transformer
架构
MCP
编程
视觉