AI在线 AI在线

模型

o3绞尽脑汁仅答对40%的题目,开源模型基本乱猜?MMSI-Bench:多图空间智能试金石

AI能看图,也能讲故事,但能理解“物体在哪”“怎么动”吗? 空间智能,正是大模型走向具身智能的关键拼图。 面对1000道多图推理题,开源大模型集体失守——准确率不到30%,甚至不如瞎猜!
6/12/2025 9:05:00 AM

全球首个历史基准!普林复旦打造AI历史助手,AI破圈人文学科

历史是关于时间中的人的科学。 ——马克·布洛赫人工智能已在诸多自然科学领域成为有力的研究助手,然而面对承载着文化意涵与历史记忆的人文学科,却仍旧表现得捉襟见肘。 究其原因,AI当前最缺乏的并非工具性能力,而是对人类智慧与文化的理解能力——这正是人文学科探究的核心。
6/12/2025 9:03:00 AM

MSRA清北推出强化预训练!取代传统自监督,14B模型媲美32B

“预测下一个token”——这个支撑LLM的核心训练机制,正在被强化学习颠覆。 微软亚洲研究院(MSRA)联合清华大学、北京大学提出全新预训练范式RPT(强化预训练),首次将强化学习深度融入预训练阶段,让模型在预测每个token前都能先“动脑推理”,并根据推理正确性获得奖励。 传统预训练依赖海量文本进行自监督学习,模型通过简单预测下一个token建立语言能力,作者将之比喻为一块蛋糕胚,而RL只是作为上面点缀的一颗樱桃。
6/12/2025 8:46:00 AM

谁说强化学习只能是蛋糕上的樱桃,说不定,它也可以是整个蛋糕呢?

谁说强化学习只能是蛋糕上的樱桃,说不定,它也可以是整个蛋糕呢? 在 2016 年的一次演讲中,Yann LeCun 曾将强化学习比喻成蛋糕上的樱桃。 他提到,「如果把智能比作一块蛋糕,那么无监督学习就是蛋糕的主体,监督学习就是蛋糕上的糖霜,而强化学习则是糖霜上的樱桃。
6/11/2025 2:45:57 PM

智能体自己出现问题自己找!首次提出“自动化失败归因”课题 | ICML2025 Spotlight

近年来,LLM Multi-Agent系统引起广泛关注。 它们各显神通,协同作战解决复杂难题。 然而,一顿操作猛如虎,最终结果却“惨不忍睹”,一整个任务失败。
6/11/2025 1:44:44 PM

扩散语言模型真的会比自回归好?理论分析结果可能恰恰相反

本工作来自北京大学智能学院贺笛老师课题组与蚂蚁集团武威团队。 贺笛老师在机器学习领域获得过多项荣誉,包括 ICLR 2023 杰出论文奖与 ICLR 2024 杰出论文奖提名。 扩散模型近年来在图像生成领域取得了令人瞩目的成就,其生成图像的质量和多样性令人惊叹。
6/11/2025 9:21:28 AM

一招缓解LLM偏科!调整训练集组成,“秘方”在此 | 上交大&上海AI Lab等

大幅缓解LLM偏科,只需调整SFT训练集的组成。 本来不擅长coding的Llama 3.1-8B,代码能力明显提升。 上海交大&上海AI Lab联合团队提出创新方法IDEAL,可显著提升LLM在多种不同领域上的综合性能。
6/11/2025 9:17:00 AM

时空压缩!剑桥大学提出注意力机制MTLA:推理加速5倍,显存减至1/8

相邻的 KV 缓存将合并为一个。 在生成第一个字符时,KV 缓存长度为 1;生成第二个字符后,新生成的 KV 与前一个被合并,KV 缓存长度仍然保持为 1。 这种动态合并机制有效压缩了时间维度上的冗余信息。
6/11/2025 9:15:51 AM

刚刚,OpenAI正式发布o3-pro!奥特曼激动更新博客:温和的奇点

今天凌晨一点,OpenAI 宣布:OpenAI o3-pro today.前沿模型的轮流更新这一次轮到 OpenAI 了。 ,所有 Pro 订阅用户均可通过 ChatGPT 和 API 使用这款强大的推理模型。 Team 用户也可在模型选择器选择使用它。
6/11/2025 9:13:44 AM

北大伯克利联手“拷问”大模型:最强Agent也才40分!新基准专治“不听话”的AI分析师

给大模型当老师,让它一步步按你的想法做数据分析,有多难? 结果是,连Claude-3.7和Gemini-2.5 Pro这样的顶尖选手,都开始“不听话”了。 在一个全新的测试基准中,它们面对多轮、不断演进的指令,最终的任务成功率最高仅有40%。
6/11/2025 9:08:00 AM

0.5B以小搏大拿下端侧模型新SOTA:4090可跑,长文本处理5倍常规加速丨清华&面壁开源

端侧性价比之王,清华大学和面壁智能团队开源新模型——MiniCPM 4,提供8B、0.5B两种参数规模,仅使用同级别开源模型22%的训练开销,就达到了同级别最优性能。 MiniCPM4-8B是开源首个开源的原生稀疏模型,5%的极高稀疏度加持,让长文本、深思考在端侧真正跑起来。 在MMLU、CEval、MATH500、HumanEval等基准测试中,以仅22%的训练开销,性能比肩 Qwen-3-8B,超越Gemma-3-12B。
6/11/2025 9:03:29 AM

不是视频模型“学习”慢,而是LLM走捷径|18万引大牛Sergey Levine

这是UC伯克利大学计算机副教授Sergey Levine最新提出的灵魂一问。 他同时是Google Brain的研究员,参与了Google知名机器人大模型PALM-E、RT1和RT2等项目。 Sergey Levine在谷歌学术的被引用次数高达18万次。
6/11/2025 8:59:21 AM

OpenAI新模型,被曝秘密训练中!万字硬核长文直指o4核心秘密

OpenAI的o4,已经在训练了? 就在最近,SemiAnalysis发表了一篇硬核长文博客,爆料了不少大模型圈的内幕消息。 其中,一些最核心的亮点,先一睹为快:OpenAI正在训练一个规模介于GPT-4.1和GPT-4.5之间的新模型下一代推理模型o4将基于GPT-4.1展开RL训练强化学习改变了实验室结构,甚至是大厂未来研究的侧重方向和优先级定义奖励函数难上加难,往往AI钻空子之后,漏洞才能被发现不牺牲LLM任何性能,不用合并权重,RL另一条路——数据混合与预训练不同,RL可持续更新Scaling模型能力,DeepSeek-R1是典例高质量数据是Scaling强化学习的护城河训练小模型,蒸馏效果要比RL更好新一轮预训练已开始首先,让我们看看其中最硬的内容——关于OpenAI的全新模型。
6/11/2025 8:54:52 AM

大模型是「躲在洞穴里」观察世界? 强化学习大佬「吹哨」提醒LLM致命缺点

「我一直很困惑,语言模型怎么能从下一个 token 预测中学到这么多,而视频模型从下一帧预测中学到的却那么少? 难道是因为大模型(LLM)其实是伪装的大脑扫描仪? 」近日,加州大学伯克利分校副教授、强化学习大牛 Sergey Levine 发出了一记灵魂拷问。
6/11/2025 8:45:00 AM

刚刚,2025哥德尔奖出炉!破解30年难题,十年论文摘桂冠

就在刚刚,理论计算机科学界迎来喜讯! 康奈尔大学副教授Eshan Chattopadhyay与导师David Zuckerman,荣获2025年哥德尔奖! 凭借2016年合著的论文《Explicit Two-Source Extractors and Resilient Functions》,他们共享此奖。
6/10/2025 4:27:16 PM

我让十个大模型又参加了完整版数学高考,第一名居然是它......

昨天,我不是发了几个大模型参加数学高考的测试文章嘛。 没想到热度挺高,大家还挺关注的。 图片不过,很多评论区的小伙伴也说,根本看不出来区别。
6/10/2025 11:25:31 AM
数字生命卡兹克

强化学习之父:LLM主导只是暂时,扩展计算才是正解

这是新晋图灵奖得主、强化学习之父Richard Sutton对未来的最新预测。 就在刚刚的新加坡国立大学建校120周年(NUS120)之际,Sutton受邀发表演讲——塑造AI和强化学习的未来。 其实,这已经不是Sutton第一次在公开场合表达类似的观点,早在他19年的著作《痛苦的教训》中,他就明确提出:让AI尤其是LLM模仿人类思维方式,只能带来短期的性能提升,长期看只会阻碍研究的持续进步。
6/10/2025 11:22:09 AM

数学圈地震!o3靠直觉刷爆人类顶尖难题,14位专家集体破防

推理模型不会推理,一夜成为硅谷最热门的话题。 来自Epoch AI最新报告称,o3-mini-high不仅会推理,还能破解顶尖数学难题。 14位数学家组团,共同评估o3在29道FrontierMath推理能力。
6/10/2025 9:22:31 AM