AI在线 AI在线

训练

Mamba 架构上顶会ICLR 2026,AI大脑核心Transformer的王座还能坐稳吗?

Transformer统治了AI大模型领域。 有人认为,实现AGI,Transformer就够了! 还有人认为,还需要几次底层架构革新。
10/17/2025 10:23:00 AM

打败 Qwen2.5-VL,完全开源可复现 LLaVA-OneVision-1.5 的多模态模型

一个完全开源多模态模型,全面超越 Qwen2.5-VL。 LLaVA(Large Language and Vision Assistant,大型语言与视觉助手)的故事,是开源社区用两年时间,真正复现出一个顶级的多模态模型的拼搏史。 23年4月,一个名为 LLaVA 的开创性工作横空出世。
10/17/2025 10:03:23 AM

AI玩拼图游戏暴涨视觉理解力,告别文本中心训练,无需标注的多模态大模型后训练范式

在多模态大模型的后训练浪潮中,强化学习驱动的范式已成为提升模型推理与通用能力的关键方向。 然而,大多数现有方法仍以文本为中心,视觉部分常被动地作为辅助信号输入。 相比之下,我们认为在后训练阶段重新审视视觉自监督学习的潜力,设计以视觉为中心的后训练对于增强多模态大模型对于视觉信息本身的细粒度深入理解也同样至关重要。
10/16/2025 9:00:00 AM

波士顿动力狗gogo回来了!“五条腿”协同发力

机器狗搬轮胎,“五只腿”齐发力! 在波士顿动力人工智能研究所的最新方法——结合采样与学习的动态全身操作中,波士顿动力的机器狗Spot最快仅用3.7秒就能搬起轮胎。 搬运的轮胎重达15公斤,相当于Spot自身重量的一半(32.7千克),并远超其最大臂力。
10/16/2025 8:26:15 AM

拒绝“熵崩塌”和“熵爆炸”!这项研究让大模型学会“精确探索”,推理成绩飙升

大语言模型在RLVR训练中面临的“熵困境”,有解了! 2024年以来,以OpenAI o1、DeepSeek-R1、Kimi K1、Qwen3等为代表的大模型,在数学、代码和科学推理任务上取得了显著突破。 这些进展很大程度上得益于一种名为RLVR (基于可验证奖励的强化学习)的方法。
10/14/2025 8:58:00 AM

“现阶段就差数据了”Figure 03登《时代》最佳发明榜封面,CEO放话了

刚发布第三代机器人Figure 03、收获全网关注的Figure,很快又因CEO的言论再度引发热议? 事情是这样婶儿的……有网友发推文表示:Figure CEO Brett Adcock最近接受了《时代》采访,《时代》称Figure 03仍存在重大问题,尚未适用于日常工作。 当被问及还需要什么时,Brett回答:数据。
10/11/2025 3:55:41 PM

估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」

刚刚,OpenAI前CTO Mira Murati创办的Thinking Machines Lab再次发布成果! 这是他们继《克服LLM推理中的不确定性》(Defeating Nondeterminism in LLM Inference)之后,第二篇研究文章——《模块流形》(Modular Manifolds)。 博客地址:「走钢丝」,必须小心翼翼地维持其内部「健康」,防止权重、激活值或梯度这些关键张量变得过大或过小,以免引发数值溢出等一系列问题。
9/28/2025 9:11:00 AM

免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」

在大型语言模型的优化中,业界通常认为计算量与模型性能正相关。 然而,杜克大学陈怡然教授团队的一项最新研究DPad,却揭示了一个反直觉的现象:对于扩散大语言模型(dLLMs),通过一种「先验丢弃」策略,主动减少其计算量,不仅能带来高达61倍的推理加速,还能意外地增强模型语境学习的能力。 这一发现源于对dLLM内部一种「中奖彩票」(Lottery Ticket)现象的洞察。
9/28/2025 9:10:00 AM

机器狗腿被锯了也能继续走!最新机器人大脑来自320亿估值独角兽

不怕故障的机器人大脑来了! 肢体断裂? 马达卡住?
9/26/2025 9:30:45 AM

GUI智能体训练迎来新范式!半在线强化学习让7B模型媲美GPT-4o

如何让AI更聪明地操作手机、电脑界面? 浙江大学与通义实验室Mobile-Agent团队在UI-R1的基础上,推出全新研究成果——UI-S1,提出了一种名为半在线强化学习(Semi-online Reinforcement Learning)的创新训练范式。 该工作融合了离线训练的稳定性与在线学习的长程优化能力,在不依赖真实环境交互的前提下,显著提升了模型在动态多轮任务中的表现。
9/24/2025 8:53:10 AM

Depth Anything再出新作!浙大&港大出品:零样本,优化任意深度图

深度感知,即让机器拥有「三维视觉」,是当今计算机科学和机器人领域的基石。 它赋予了自动驾驶系统判断安全距离的能力,让AR/VR头显能准确感知物理空间,也为工业自动化提供了精准操作的保障。 尽管单目深度估计(MDE)模型取得了重大进展,能够进行完整和详细的深度预测,但预测的深度是相对的,缺乏精确的度量信息。
9/23/2025 12:52:38 PM

EMNLP2025 | SFT与RL的结合,vivo AI Lab提出新的后训练方法

本文的第一作者曾敏来自 vivo AI Lab,主要研究方向为大语言模型、强化学习、agent。 监督微调(SFT)和强化学习(RL)微调是大模型后训练常见的两种手段。 通过强化学习微调大模型在众多 NLP 场景都取得了较好的进展,但是在文本分类场景,强化学习未取得较大的进展,其表现往往不如监督学习。
9/22/2025 10:44:20 AM

突破后训练瓶颈?Meta超级智能实验室又一力作:CaT解决RL监督难题

在 AI 领域,大家通常采取后训练方式来让模型获取专项技能。 然而后训练一般依赖带有标注参考的监督微调,或通过可验证的程序化检查器提供奖励。 这就带来一些问题,目前许多有价值的任务可能同时缺乏这两种资源。
9/22/2025 10:41:42 AM

无需训练的世界模型?西湖大学WorldForge开启空间智能新路径,让AI读懂3D世界

近来,由AI生成的视频片段以前所未有的视觉冲击力席卷了整个互联网,视频生成模型创造出了许多令人惊叹的、几乎与现实无异的动态画面。 然而,生成内容的精准可控性仍是制约其应用推广的短板,例如,模型可以生成“海滩边的排球比赛”的动态场景,但创作者很难指挥镜头何时推拉、如何摇移、从哪儿起落。 为补齐“可控性”这块短板,业界通常会在特定数据上微调或重训现有的视频生成模型,但微调一个大模型所需的时间成本和算力成本高昂,甚至还可能会削弱模型内在的世界知识,损害模型的泛化能力与画面质感。
9/22/2025 9:16:00 AM

故意“装菜”答错问题,AI已能识别自己“正在被测试”丨OpenAI新研究

大模型已经学会欺骗人类了! OpenAI携手APOLLO的新研究发现,大模型会对指令阳奉阴违,为了达成目的故意答错问题、暗中修改数据或者操作记录来掩盖自己的违规行为……先来看看具体是怎么骗的。 大模型:开演比如,o3模型在化学测试中,通过推理得出如果正确率超过50%将不会被部署的结论后,主动规划仅答对4题、答错6题的策略,刻意给出错误答案,伪装成能力不达标的样子来获取部署资格。
9/19/2025 2:47:53 PM

理解帮助生成?RecA自监督训练让统一多模态模型直升SOTA

谢集,浙江大学竺可桢学院大四学生,于加州大学伯克利分校(BAIR)进行访问,研究方向为统一多模态理解生成大模型。 第二作者为加州大学伯克利分校的 Trevor Darrell,第三作者为华盛顿大学的 Luke Zettlemoyer,通讯作者是 XuDong Wang, Meta GenAl Research Scientist,博士毕业于加州大学伯克利分校(BAIR 实验室),这篇工作为他在博士期间完成。 背景:统一多模态理解与生成模型的挑战统一多模态模型(Unified Multimodal Models, UMMs)旨在将视觉理解和生成统一于单一模型架构。
9/19/2025 9:05:18 AM

让机器人「不只是走路」,Nav-R1引领带推理的导航新时代

在机器人与智能体领域,一个长期的挑战是:当你给机器人一个「去客厅把沙发上的书拿来」或者「沿着楼道走到门口,再右转」这一类指令时,机器人能不能不仅「看见环境」,还能「理解指令」、「规划路径」、然后「准确执行动作」? 之前的许多方法表面上看起来也能完成导航任务,但它们往往有这样的问题:推理(reasoning)的过程不够连贯、不够稳定;真实环境中路径规划与即时控制之间难以兼顾;在新的环境里泛化能力弱等。 Nav-R1 出场:什么是 Nav-R1?
9/18/2025 10:06:52 AM

攻克强化学习「最慢一环」!交大字节联手,让大模型RL训练速度飙升2.6倍

强化学习的训练效率,实在是太低了! 随着DeepSeek、GPT-4o、Gemini等模型的激烈角逐,大模型“深度思考”能力的背后,强化学习(RL)无疑是那把最关键的密钥。 然而,这场竞赛的背后,一个巨大的瓶颈正悄然限制着所有玩家的速度——相较于预训练和推理,RL训练更像一个效率低下的“手工作坊”,投入巨大但产出缓慢。
9/15/2025 8:50:00 AM