AI在线 AI在线

模型

准确率92.7%逼近Claude 3.5、成本降低86%,开源代码定位新神器LocAgent来了

又是一个让程序员狂欢的研究! 来自 OpenHands、耶鲁、南加大和斯坦福的研究团队刚刚发布了 LocAgent—— 一个专门用于代码定位的图索引 LLM Agent 框架,直接把代码定位准确率拉到了 92.7% 的新高度。 该研究已被 ACL 2025 录用。
5/29/2025 9:18:20 AM

爆火论文颠覆RL认知!「错误奖励」让LLM推理暴涨24.6%,学界惊了

今早的一篇爆火论文,彻底颠覆了人们对「强化学习」的传统认知。 仅用随机奖励,甚至是错误答案,也能让AI在数学推理中性能暴涨! 来自华盛顿大学、AI2、UC伯克利研究团队证实,「伪奖励」(Spurious Rewards)也能带来LLM推理能力提升的惊喜。
5/29/2025 9:14:17 AM

阿里通义发布并行计算新策略:1.6B等效4.4B,内存消耗骤降95%

既能提升模型能力,又不显著增加内存和时间成本,LLM第三种Scaling Law被提出了。 对于1.6B模型,能实现性能接近4.4B模型,内存占用仅为后者的1/22,延迟增加量为1/6。 并且可直接应用于现有模型(如Qwen-2.5),无需从头训练。
5/29/2025 9:14:00 AM

一个省略号提示+强化学习搞定大模型“过度思考”,中科院自动化所新方法:从强制推理到自主选择

在日益强调“思维能力”的大语言模型时代,如何让模型在“难”的问题上展开推理,而不是无差别地“想个不停”,成为当前智能推理研究的重要课题。 中国科学院自动化研究所联合鹏城实验室提出了一种高效的推理策略,赋予推理大模型根据题目难度自主切换思考模式的能力:通过一个小小的省略号作为提示词 多阶段强化学习,引导大模型自主决定是否深度思考、思考多少。 研究背景:大模型“想太多”,是优点还是负担?
5/29/2025 9:08:00 AM

刚刚,新版DeepSeek-R1正式开源!直逼o3编程强到离谱,一手实测来了

就在今天凌晨,新版DeepSeek-R1正式开源了! DeepSeek-R1-0528模型权重已上传到HuggingFace,不过模型卡暂未更新。 项目地址:,DeepSeek-R1完成了超进化,编码能力强到离谱,而且思考时间更长了。
5/29/2025 9:04:51 AM

数据提取场景下不同LLM模型对比分析

在数字化时代,数据作为核心资产,其高效处理与利用成为企业和组织发展的关键。 然而,大量数据以非结构化文本、传统文档等形式存在,导致数据提取面临巨大挑战。 人工智能,尤其是大语言模型(LLMs)的爆发式发展,为大规模自动化数据提取提供了新的可能。
5/29/2025 1:50:00 AM
大模型之路

首个面向柔性衣物灵巧操作的仿真平台来了,北大、伯克利联合发布

本论文共同第一作者为王昱然、吴睿海、陈越,导师为北京大学董豪老师。 课题组致力于统一的物体表征操作研究,以实现具有可解释性和泛化能力的物体操作策略。 在机器人操作领域,柔性物体,尤其是衣物的操控始终是一个值得关注的难题。
5/28/2025 6:43:17 PM

微软开源 Aurora AI 气象模型,助力天气与环境监测

近日,微软研究院宣布开源其 Aurora AI 气象预报模型。 这一模型结合了深度学习和大规模数据处理技术,旨在为气象预报和环境监测提供精准的解决方案。 Aurora AI 不仅能够高效预测天气,还可以经过微调后应用于洋流和空气质量监测等多个领域。
5/28/2025 12:01:25 PM
AI在线

MiniMax开源首个视觉RL统一框架,闫俊杰领衔!推理感知两手抓,性能横扫MEGA-Bench

仅需一个强化学习(RL)框架,就能实现视觉任务大统一? 现有RL对推理和感知任务只能二选一,但“大模型六小强”之一MiniMax表示:我全都要! 最新开源V-Triune(视觉三重统一强化学习系统)框架,使VLM首次能够在单个后训练流程中,联合学习和掌握视觉推理和感知任务。
5/28/2025 11:55:56 AM

多模态模型具备“物理推理能力”了吗?新基准揭示:表现最好的GPT-o4 mini也远不及人类!

表现最好的GPT-o4 mini,物理推理能力也远不及人类! 就在最近,来自香港大学、密歇根大学等机构的研究人员补齐了现有评估体系中的一处关键空白——评估多模态模型是否具备“物理推理能力”。 物理推理,即模型在面对真实或拟真的物理情境时,能否综合利用视觉信息、物理常识、数学建模进行判断和预测,被认为是通向具身智能的关键能力。
5/28/2025 11:55:28 AM

强化学习解决长上下文推理问题:通义推出QwenLong-L1-32B

近期的推理大模型(LRMs)通过强化学习(RL)展现出强大的推理能力,但这些改进主要体现在短上下文推理任务中。 相比之下,如何通过强化学习扩展 LRMs 以有效处理和推理长上下文输入,仍然是一个尚未解决的关键挑战。 来自阿里巴巴通义实验室的团队首先形式化定义长上下文推理强化学习范式,并识别出其中的两个核心挑战:次优的训练效率与不稳定的优化过程。
5/28/2025 11:46:52 AM

开源模型竟被用于窃取下游微调数据?清华团队揭秘开源微调范式新型隐藏安全风险

本文作者分别来自清华大学 CoAI 小组和墨尔本大学。 第一作者张哲昕为清华大学直博三年级学生,研究方向为大模型安全,主要合作者为孙玉豪,来自墨尔本大学,主要指导教师为清华大学王宏宁副教授与黄民烈教授。 基于开源模型继续在下游任务上使用私有下游数据进行微调,得到在下游任务表现更好的专有模型,已经成为了一类标准范式。
5/28/2025 11:46:18 AM

全球顶尖AI做物理,被人类按地摩擦?不懂推理大翻车,本科生碾压

大模型,真的懂物理推理吗? 就在刚刚,港大、密歇根大学、多伦多大学等机构的研究者用3000道物理题,给全球顶尖大模型来了一场大拷问。 结果,这些顶尖AI,毫无例外全部翻车了!
5/28/2025 11:44:24 AM

GPA只有3.3,顶会一作两篇,成功杀进TOP 20 AI博士?小哥曝光关键秘诀

两篇顶会一作,在亚洲攻读硕士学位,2026年春季毕业。 这位网友表示,自己计划申请2026年秋季开学的博士项目。 他的条件是:本科GPA在3.2-3.3左右,不算很高,但有一些研究经验。
5/28/2025 11:43:06 AM

单卡即可微调大模型!内存占用仅1/8,性能依然拉满 | ICML 2025

诸如Qwen,GPT,DeepSeek R1等基础大模型已成为现代深度学习的基石。 然而,在应用于具体下游任务时,它们庞大的参数规模使得额外微调成本较高。 为了解决这一问题,近期的研究聚焦于低秩适应 (LoRA) 方法,通过保持基座模型参数冻结,仅对新增的小型轻量级适配器进行微调,从而降低微调成本。
5/28/2025 11:42:14 AM

o4-mini暴击六大数学天团,攻破陶哲轩难题!4.5h激战人类阵地失守

八支「数学家天团」和o4-mini-medium同台竞技,谁会最终胜出? 最近,Epoch AI团队举办了一场竞赛,专门考察AI数学能力的进展。 这场比赛邀请了约40位数学精英,分成8组,每组由学科专家和优秀本科生组成。
5/28/2025 10:30:41 AM

微软CEO吹爆「智能体」:AI不仅要“杀死”SaaS,操作系统也会“格式化”重来

微软CEO最新采访,分享给大家。 一个冷知识:微软作为IT巨头,虽然拥有OpenAI模型优先使用权,但到现在为止没有自己的拿得出手的模型,我们可以感受一下一个没有自研模型的大厂是如何思考未来满是AI的世界,微软如何通过AI来重塑产品和应用,如何挣钱。 这是微软CEO萨蒂亚·纳德拉(Satya Nadella)在Build 2025 大会后深度访谈,回应了备受争议的“SaaS已死”论,更抛出了“零成本智能”和“无代码操作系统”的颠覆性愿景。
5/28/2025 10:27:08 AM