语言模型
循环语言模型:提升参数效率的潜在推理新范式
现代大型语言模型(LLM)主要通过显式文本生成方式进行"思考",例如思维链(Chain-of-Thought, CoT),这种方法将推理延迟到训练后阶段,未能充分利用预训练数据。 本文介绍了一种名为Ouro的开源预训练循环语言模型(LoopLM)家族,其命名灵感来自递归的衔尾蛇(Ouroboros),通过三种关键创新将推理能力直接构建到预训练阶段:(1)潜在空间中的迭代计算,(2)用于学习深度分配的熵正则化目标函数,以及(3)扩展到7.7万亿token的训练规模。 核心创新与技术亮点Ouro模型展现了卓越的参数效率,其1.4B和2.6B参数规模的模型性能可以匹配甚至超越12B参数的SOTA模型。
11/4/2025 1:43:00 AM
可可
阿里通义千问Qwen3-Max 在官网上线深度思考功能
阿里通义千问的最新旗舰语言模型 Qwen3-Max 于正式上线其核心新功能 “深度思考” 模式,该模式通过增强推理链分析与多步骤问题拆解能力,显著提高了处理复杂任务的效率。 Qwen3-Max 是通义团队迄今为止规模最大、能力最强的语言模型,其参数量突破了1万亿,预训练数据达到惊人的36T tokens。 Qwen3-Max-Instruct 的正式版本在代码能力和智能体能力方面都有了显著提升。
11/3/2025 11:22:09 AM
AI在线
字节跳动放大招!SAIL-VL2横空出世,多模态视觉语言模型的巅峰之作
随着人工智能技术的不断发展,多模态模型在图像理解、自然语言处理等领域的应用越来越广泛。 SAIL-VL2 是由字节跳动抖音 SAIL 团队和新加坡国立大学 LV-NUS 实验室联合推出的一款开源多模态视觉语言模型,旨在实现全面的多模态理解和推理。 一、项目概述SAIL-VL2 是由字节跳动抖音 SAIL 团队和新加坡国立大学 LV-NUS 实验室联合开发的开源视觉语言基础模型。
10/31/2025 2:25:00 AM
AGI小兵
揭秘Fathom-DeepResearch:4B小模型如何实现媲美GPT-4o的深度研究能力
揭秘Fathom-DeepResearch:让小模型也能做深度研究的秘密武器论文链接::、研究背景:为什么我们需要更聪明的搜索助手? 想象一下,你想了解一个复杂的问题,比如"某个体育赛事的历史背景和相关人物",你会怎么做? 可能需要在搜索引擎上反复查询,打开无数网页,然后自己整理信息。
10/28/2025 2:11:00 AM
ChallengeHub
让AI说"人话":TypeChat.NET如何用强类型驯服大语言模型的"野性"
引言:当AI开始"听懂人话"时发生了什么? 想象一下这样的场景:你走进咖啡厅,对着智能点餐系统说:"来杯大杯拿铁,少糖,加燕麦奶,要热的。 "系统不仅准确理解了你的需求,还把订单转换成了结构化数据——饮品类型、尺寸、温度、配料,一个都没落下。
10/14/2025 12:25:00 AM
许泽宇
Code World Model (CWM):用世界模型改善代码生成的开源大语言模型
Meta发布了 Code World Model (CWM,论文:CWM: An Open-Weights LLM for Research on Code Generation with World Models),一个拥有32B参数的开源大语言模型(LLM),旨在推动基于世界模型的代码生成研究。 与传统仅从静态代码训练的模型不同,CWM在大规模 Python解释器执行轨迹 和 agent性Docker环境交互轨迹 上进行中期训练,并在可验证编码、数学和多轮软件工程环境中进行多任务强化学习(RL)。 CWM为研究者提供了探索世界建模在代码生成中通过推理和规划提升能力的强大平台。
9/28/2025 4:00:00 AM
无影寺
AI为啥总“一本正经胡说八道”?OpenAI发长篇论文解释了
相信很多同学都遇到过——问大模型一个冷门知识,它会一本正经地给出完全错误的答案。 比如:复制OpenAI(2025a)三次回答分别是 03-07、15-06、01-01,没一次对。 这就是典型的 Hallucination(幻觉)——语言模型生成看起来合理,实则错误离谱。
9/23/2025 9:44:02 AM
架构精进之路
Meta超级智能实验室新论文陷争议!被指忽略大量前人研究
Meta超级智能实验室(MSL)又被送上争议的风口浪尖了。 不过,这次不是人事风波,而是他们的第二篇论文《Language Self-Play For Data-Free Training》被质疑忽视前人研究、缺乏创新。 图片究竟是啥论文?
9/12/2025 9:11:54 AM
借助 Kubernetes 与 vLLM 实现大规模大语言模型推理
在当下的人工智能领域,大语言模型(LLMs)正以前所未有的力量推动各类应用变革,从智能聊天机器人、精准搜索引擎,到高效的代码辅助工具以及自动化文档处理系统,其身影无处不在。 然而,将大语言模型高效地部署到生产环境中,却面临着严峻的基础设施与工程挑战。 尤其是当需要同时处理数百甚至数千个并发请求,且要保证低延迟和高可靠性时,传统的技术方案往往难以应对。
9/2/2025 4:22:00 AM
大模型之路
牛津大学警告:越“温暖”的 AI,越爱胡说八道,温柔体贴=更高错误率
牛津大学的一支研究团队发现,越是表现出温暖和同理心的语言模型,越容易出错,甚至更频繁地重复虚假信息和阴谋论。 这次,研究团队测试了五个不同架构和规模的模型,包括Llama-8B、Mistral-Small、Qwen-32B、Llama-70B和GPT-4o。 研究发现,温暖的模型在推广阴谋论、提供不正确的医疗建议和事实信息方面,表现出更高的错误率。
8/25/2025 12:02:00 AM
ICCV 2025 | 跨越视觉与语言边界,打开人机交互感知的新篇章:北大团队提出INP-CC模型重塑开放词汇HOI检测
本文的第一作者为北京大学王选计算机研究所博士生雷廷,通讯作者为博士生导师刘洋。 团队近年来在 TPAMI、CVPR、ICCV、ICML 等顶会上有多项代表性成果发表,多次荣获多模态感知和生成竞赛冠军,和国内外知名高校、科研机构广泛开展合作。 目前的 HOI 检测方法普遍依赖视觉语言模型(VLM),但受限于图像编码器的表现,难以有效捕捉细粒度的区域级交互信息。
8/20/2025 9:13:00 AM
如何在你的计算机上运行OpenAI新的gpt-oss-20b LLM?
译者 | 布加迪审校 | 重楼你只需要24GB 的内存,除非你的GPU自带VRAM,否则需要相当的耐心。 上周,OpenAI发布了两款流行的开放权重模型,均名为gpt-oss。 由于你可以下载它们,因此可以在本地运行。
8/13/2025 7:25:57 AM
布加迪
17 种 RAG 架构实现原理与选型
RAG(Retrieval-Augmented Generation)是一种结合外部知识检索与语言模型生成的混合技术架构。 它在大型语言模型(如 GPT)生成能力的基础上,通过外部知识库提高了准确性、时效性和可控性,广泛用于企业问答、搜索增强、智能客服、代码辅助、知识图谱等场景。 然而,RAG不是一个固定结构,也没有固定的套路,而是一套可以灵活演化的系统。
8/4/2025 6:05:00 AM
Andflow
四款扩散大语言模型全部破防?上交&上海AI Lab发现致命安全缺陷
扩散语言模型(Diffusion-based LLMs,简称 dLLMs)以其并行解码、双向上下文建模、灵活插入masked token进行解码的特性,成为一个重要的发展方向。 相较传统的自回归语言模型,dLLMs 既可以一次性生成多个位置的词,也能更自然地完成文本插入、改写、补全等任务,被广泛应用于交互式问答、代码生成、甚至多模态场景。 但在这股看似技术跃迁的浪潮背后,一场潜藏的安全危机正在酝酿:能否继续沿用自回归模型的对齐与防护机制,保障dLLM的输出安全?
7/24/2025 9:15:00 AM
无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer
我们终于摆脱 tokenization 了吗? 答案是:可能性无限大。 最近,Mamba 作者之一 Albert Gu 又发新研究,他参与的一篇论文《 Dynamic Chunking for End-to-End Hierarchical Sequence Modeling 》提出了一个分层网络 H-Net,其用模型内部的动态分块过程取代 tokenization,从而自动发现和操作有意义的数据单元。
7/14/2025 8:50:00 AM
LeCun团队揭示LLM语义压缩本质:统计压缩牺牲细节
当我们读到“苹果”“香蕉”“西瓜”这些词,虽然颜色不同、形状不同、味道也不同,但仍会下意识地归为“水果”。 哪怕是第一次见到“火龙果”这个词,也能凭借语义线索判断它大概也是一种水果。 这种能力被称为语义压缩,它让我们能够高效地组织知识、迅速地对世界进行分类。
7/4/2025 9:53:57 AM
视觉语言模型如何突破感知边界?上海 AI 新势力提出“世界意识”赋能真实环境规划
——如何让多模态智能体真正“看懂”世界并做出复杂决策“把切好的苹果片冰一下再丢进垃圾桶”——这样一条看似普通的自然语言指令,若让一台具身智能体(Embodied Agent)执行,其背后实则隐藏了多步规划、常识应用、环境理解、工具使用等一系列交互复杂度极高的子任务。 如何让 AI 理解任务的潜台词、合理分解步骤,并在真实视觉输入中找准对象并正确执行,正是当前具身智能与多模态学习面临的最大挑战之一。 具身智能与多模态规划的研究背景具身智能(Embodied Intelligence)可以被视为 AI 研究“从认知走向行为”的转折点。
7/1/2025 1:35:00 AM
FlerkenS
CVPR 2025 | 零开销,消除图像幻觉!基于零空间投影挖掘正常样本特征
当前大型视觉语言模型(LVLMs)普遍存在「物体幻觉」问题:模型会凭空生成图像中不存在的物体描述。 为了高效地实现幻觉消除,西安交通大学研究团队提出了一种利用「幻觉子空间」(HalluSpace)进行零空间投影的高效模型权重编辑方法Nullu(Null space of HalluSpace)。 论文地址:::从特征空间寻找到正常样本表征与幻觉样本特征的核心差异。
6/30/2025 8:15:00 AM
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
大模型
机器人
数据
AI新词
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
技术
智能体
马斯克
Gemini
Anthropic
英伟达
图像
AI创作
训练
LLM
论文
代码
算法
苹果
AI for Science
Agent
Claude
腾讯
芯片
Stable Diffusion
蛋白质
开发者
xAI
具身智能
生成式
神经网络
机器学习
3D
人形机器人
AI视频
RAG
大语言模型
研究
百度
Sora
生成
GPU
工具
华为
计算
字节跳动
AI设计
AGI
大型语言模型
搜索
生成式AI
视频生成
DeepMind
场景
特斯拉
深度学习
AI模型
架构
亚马逊
Transformer
MCP
编程
视觉
预测