AI在线 AI在线

模型

让GPU不再摸鱼!清华蚂蚁联合开源首个全异步RL,一夜击穿14B SOTA

还记得今年初DeepSeek‑R1系列把纯强化学习(RL)训练开源,点燃社区对于RL的热情吗? 不久后,来自清华蚂蚁联合开源项目AReaL(v0.1)也通过在DeepSeek-R1-Distill-Qwen-1.5B上进行RL训练,观察到模型性能的持续提升。 AReaL(v0.1)在40小时内,使用RL训练的一个1.5B参数模型,在数学推理方面就超越了o1-Preview版本。
6/6/2025 9:10:00 AM

真实联网搜索Agent,7B媲美满血R1,华为盘古DeepDiver给出开域信息获取新解法

大型语言模型 (LLM) 的发展日新月异,但实时「内化」与时俱进的知识仍然是一项挑战。 如何让模型在面对复杂的知识密集型问题时,能够自主决策获取外部知识的策略? 华为诺亚方舟实验室研究团队提出了 Pangu DeepDiver 模型,通过 Search Intensity Scaling 实现了 LLM 搜索引擎自主交互的全新范式,使得 Pangu 7B 模型在开域信息获取能力上可以接近百倍参数的 DeepSeek-R1,并优于 DeepResearcher、R1-Searcher 等业界同期工作!
6/6/2025 9:07:00 AM

推理时间减少70%!前馈3DGS「压缩神器」来了,浙大Monash联合出品

在增强现实(AR)和虚拟现实(VR)等前沿应用领域,新视角合成(Novel View Synthesis,NVS)正扮演着越来越关键的角色。 3D高斯泼溅(3D Gaussian Splatting,3DGS)凭借其革命性的实时渲染能力和卓越的视觉质量,迅速成为NVS领域备受关注的技术方案。 现有的前馈3D高斯泼溅(Feed-Forward 3D Gaussian Splatting,3DGS)模型,虽然在实时渲染和高效生成3D场景方面取得了显著进展,但仍存在一些关键缺陷。
6/6/2025 9:07:00 AM

DeepMind揭惊人答案:智能体就是世界模型!跟Ilya 2年前预言竟不谋而合

就在刚刚,DeepMind科学家Jon Richens在ICML 2025上发表的论文,一石激起千层浪。 实现人类水平的智能体(即AGI),是否需要世界模型,还是存在无模型的捷径? 他们从第一性原理出发,揭示了一个令人惊讶的答案——智能体就是世界模型!
6/6/2025 9:02:00 AM

大模型结构化推理优势难复制到垂直领域!最新法律AI评估标准来了,抱抱脸评测集趋势第一

大模型推理,无疑是当下最受热议的科技话题之一。 但在数学和物理等STEM之外,当LLM落到更多实际应用领域之中,大模型的推理能力又有多大的潜能和局限? 比如,如何评估大模型的推理能力在法律领域的应用,就在当前备受关注。
6/6/2025 9:00:00 AM

RL后训练步入超节点时代!华为黑科技榨干算力,一张卡干俩活

在大模型竞赛白热化的当下,「强化学习后训练」已成为突破LLM性能天花板的核心路径。 爆火出圈的OpenAI o1、DeepSeek-R1等模型,背后都是依靠RL后训练点石成金。 相较于预训练阶段的「广撒网」式知识获取,RL 后训练通过驱动模型与外部环境进行动态交互,直接塑造了LLM在复杂任务中的推理效能。
6/6/2025 8:55:00 AM

《圣经》成书时间或被改写!AI竟发现《死海古卷》早于所罗门时代

就在刚刚,科学家用AI重新定义了《死海古卷》历史时间线! 许多卷轴其实比原先认为年代还要早很多,两卷《死海古卷》竟是《但以理书》的最早片段! 研究还显示,《传道书》很可能由无名作者在公元前三世纪完成,而非传统所称的所罗门王!
6/6/2025 1:25:00 AM
新智元

OpenAI久违发了篇「正经」论文:线性布局实现高效张量计算

OpenAI 发论文的频率是越来越低了。 如果你看到了一份来自 OpenAI 的新 PDF 文件,那多半也是新模型的系统卡或相关增补文件或基准测试,很少有新的研究论文。 至于原因嘛,让该公司自家的 ChatGPT 来说吧:「截至目前,OpenAI 在 2025 年在 arXiv 上公开发布的论文数量相对较少,可能反映了其对研究成果公开策略的谨慎态度,可能出于商业保密或安全考虑。
6/5/2025 11:49:59 AM

ACL 2025 | 基于Token预算感知的大模型高效推理技术

本位作者分别来自南京大学,罗格斯大学和马萨诸塞大学阿默斯特分校。 第一作者韩廷旭与共同第一作者王震霆是分别来自南京大学和罗格斯大学的博士生,研究方向聚焦于大模型推理以及安全负责任的生成式人工智能。 通讯作者为南京大学房春荣教授。
6/5/2025 11:49:21 AM

OpenAI深夜宣布ChatGPT支持MCP、会议记录,万物互联时代来了!

今天凌晨1点,OpenAI开始技术直播对ChatGPT进行了重大更新,包括向macOS用户推出ChatGPT会议记录模式,可以转录任何会议、头脑风暴或语音笔记,并快速提取要点然后转化为新的内容。 另外一个重要功能就是ChatGPT正式支持MCP协议,例如,直接连接Github、SharePoint、Gmail、Dropbox、Box、Outlook等常用工具,实现跨平台数据整合、搜索和推理。 简单来说,OpenAI希望把ChatGPT打造成智能协作平台,在一个地方就把所有事情都做了。
6/5/2025 9:21:10 AM

奥特曼:假如给我一千倍算力,我会这样做

完美的人工智能是“一个拥有超人推理能力、1万亿个上下文标记并可以使用你能想到的所有工具的微型模型”。 这是奥特曼在最新的访谈中对下一代模型的展望。 他表示,理想中的AGI不需要包含知识——只需要思考、搜索、模拟和解决任何问题的能力。
6/5/2025 9:09:00 AM

陶哲轩再爆:一个月三破18年未解难题!AlphaEvolve彻底改写数学研究规则

数学界再次见证奇迹! 一项沉睡了18年的难题,在一个月内竟被AI与人类联手三度突破! 每一次都将我们对可能性的认知推向新高。
6/5/2025 9:06:00 AM

10步优化超越强化学习,仅需1条未标注数据!后训练强势破局

在具备强大的通用性能之后,当下大模型的研究方向已经转向了「如何解决特定且复杂的推理任务」,比如数学问题、分析物理现象或是构建编程逻辑。 要想达到更高的性能,除了海量文本的预训练之外,往往还需要进一步的后训练。 主流后训练方法是采用强化学习(RL),特别是结合可验证奖励的强化学习(RLVR)。
6/5/2025 9:05:00 AM

爆火AI编程Windsurf突遭Claude全面断供,开发者大量退订!直接打脸OpenAI

即将抱上OpenAI这条大腿的Windsurf,高兴早了! 刚刚,AI编程工具Windsurf的联创兼CEO Varun Mohan发文称,Anthropic几乎没有提前通知,就大幅减少了Windsurf对Claude 3.5和3.7 Sonnet模型的服务配额。 由于事先毫无预警,Windsurf只能紧急启用第三方推理服务来维持Claude模型的使用,但短期内用户体验势必受到影响。
6/5/2025 8:58:00 AM

开启 AI 自主进化时代,普林斯顿Alita颠覆传统通用智能体,GAIA榜单引来终章

智能体技术日益发展,但现有的许多通用智能体仍然高度依赖于人工预定义好的工具库和工作流,这极大限制了其创造力、可扩展性与泛化能力。 近期,普林斯顿大学 AI Lab 推出了 Alita——一个秉持「极简即是极致复杂」哲学的通用智能体,通过「最小化预定义」与「最大化自我进化」的设计范式,让智能体可以自主思考、搜索和创造其所需要的 MCP 工具。 论文标题:ALITA: GENERALIST AGENT ENABLING SCALABLE AGENTIC REASONING WITH MINIMAL PREDEFINITION AND MAXIMAL SELF-EVOLUTION论文链接::: 目前已在 GAIA validation 基准测试中取得 75.15% pass@1 和 87.27% pass@3 的成绩,一举超越 OpenAI Deep Research 和 Manus 等知名智能体,成为通用智能体新标杆。
6/5/2025 8:46:00 AM

重磅开源!首个全异步强化学习训练系统来了,SOTA推理大模型RL训练提速2.77倍

来自清华大学交叉信息院和蚂蚁技术研究院的联合团队,正式开源全异步强化学习训练系统 —— AReaL-boba² (AReaL v0.3)。 作为 AReaL 里程碑版本 AReaL-boba 的重磅升级,AReaL-boba² (正式全名:A-ReaL-double-boba) 坚持 boba 系列 “全面开源、极速训练、深度可定制” 的开发理念,再次加量:除了更全的功能和更详细的文档说明,更以全异步 RL 为核心,发布 SOTA 代码模型,全面奔向 Agentic RL:🚀 效率再突破: 全面实现异步 RL 训练,完全解耦模型生成与训练,效果不变的前提下训练速度对比上一版本最高提升 2.77 倍,GPU 资源利用率大幅优化。 📚 上手零门槛: 新增详细教程 (Step-by-Step Tutorials) 和深度文档 (Comprehensive Documentation),覆盖安装、核心概念、算法 / 模型定制化到问题排查,新手友好,老手高效。
6/5/2025 8:40:00 AM

英伟达发布 Llama Nemotron Nano VL AI:高效精准,攻克复杂文档解析难题

Llama Nemotron Nano VL 融合了 CRadioV2-H 视觉编码器和 Llama 3.1 8B 指令微调语言模型,能同时处理多页文档中的视觉和文本元素,支持最长 16K 的上下文长度,覆盖图像和文本序列。
6/5/2025 8:01:43 AM
故渊

最新发现!每参数3.6比特,语言模型最多能记住这么多

语言模型到底能记住多少信息? Meta、DeepMind、康奈尔大学和英伟达的一项测量结果显示:每个参数大约 3.6 比特。 一旦达到这个极限,它们就会停止记忆并开始泛化。
6/4/2025 1:56:51 PM