AI在线 AI在线

训练

攻克强化学习「最慢一环」!交大字节联手,让大模型RL训练速度飙升2.6倍

强化学习的训练效率,实在是太低了! 随着DeepSeek、GPT-4o、Gemini等模型的激烈角逐,大模型“深度思考”能力的背后,强化学习(RL)无疑是那把最关键的密钥。 然而,这场竞赛的背后,一个巨大的瓶颈正悄然限制着所有玩家的速度——相较于预训练和推理,RL训练更像一个效率低下的“手工作坊”,投入巨大但产出缓慢。
9/15/2025 8:50:00 AM

国产类脑大模型适配国产沐曦GPU!长序列推理提速超百倍,仅用2%数据匹敌主流模型

超长序列推理时的巨大开销如何降低? 中国科学院自动化所李国齐、徐波团队发布的类脑脉冲大模型SpikingBrain (瞬悉)-1.0提出了新思路。 SpikingBrain借鉴大脑信息处理机制,具有线性/近线性复杂度,在超长序列上具有显著速度优势。
9/12/2025 9:03:00 AM

交互扩展时代来临:创智复旦字节重磅发布AgentGym-RL,昇腾加持,开创智能体训练新范式

强化学习之父、2024 年 ACM 图灵奖得主 Richard Sutton 曾指出,人工智能正在迈入「经验时代」—— 在这个时代,真正的智能不再仅仅依赖大量标注数据的监督学习,而是来源于在真实环境中主动探索、不断积累经验的能力。 正如人类通过实践理解世界、优化行为一样,智能体也必须在交互中积累经验、改进策略,才能掌握长期决策的能力。 无独有偶,特斯拉前 AI 负责人,OpenAI 联合创始人 Andrej Karpathy 进一步指出,环境的多样性与真实性,是智能体获得泛化能力、应对复杂任务的关键前提。
9/11/2025 1:46:59 PM

AlphaGo作者领衔,8个机械臂协同干活0碰撞,DeepMind新作登Science子刊

一群机械臂手忙脚乱地自己干活,彼此配合、互不碰撞。 科幻大片场景真的走入现实了。 优雅,实在是优雅。
9/10/2025 9:00:00 AM

OpenAI内部大重组!模型行为团队并入Post Training,负责人另起炉灶

OpenAI又要成立新团队了! TechCrunch消息,OpenAI正在对其模型行为(Model behavior)团队进行重组。 模型行为团队,就是OpenAI内部专门塑造模型“个性”的核心研究小组。
9/8/2025 3:13:52 PM

大模型破译甲骨文创下新SOTA!复旦团队推出新框架

让大模型破译从未见过的甲骨文,准确率拿下新SOTA! 来自复旦大学的研究人员提出了一种基于部首和象形分析的可解释甲骨文破译框架——不仅在公开基准数据集HUST-OBC和EV-OBC上,达到最先进的Top-10识别准确率以及优异的零样本破译能力。 而且面对未破译甲骨文,所提方法也能够输出可解释性的分析文本,从而为考古破译工作提供潜在帮助。
9/8/2025 9:02:00 AM

震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?

一直以来,预训练,都是大模型训练过程中最花钱的部分。 比如,在DeepSeek V3中,它的成本占比就超过95%。 谁能在这里节省算力,就等于赚了。
9/8/2025 8:59:00 AM

调整训练数据出场顺序,大模型就能变聪明!无需扩大模型/数据规模

模型训练重点在于数据的数量与质量? 其实还有一个关键因素——数据的出场顺序。 对此,微软亚洲研究院提出了一种全新的文本数据组织范式DELT(Data Efficacy in LM Training),通过引入数据排序策略,充分挖掘训练数据潜力,在不同模型尺寸与规模下都达到了良好性能。
9/8/2025 8:50:00 AM

字节发了个机器人全能大模型,带队人李航

机器人终于不用散装大脑了! 字节Seed一个模型就能搞定机器人推理、任务规划和自然语言交互。 经常做机器人的朋友都知道,以前想让机器人干活,得先解决一个烦人的问题——模块之间的信息代沟。
9/8/2025 8:45:00 AM

突破具身智能“专家困境”!北大新方法让宇树G1靠单一框架掌握跳舞和侧手翻

人形机器人对跳舞这件事,如今是越来越擅长了。 比如跳一支查尔斯顿舞,一分四十秒的丝滑摇摆,稳定得像踩着节拍器:不过,它们能否像人类一样自如切换跳舞、体操、日常操作等不同的动作模式? 北京大学与BeingBeyond团队联合研发的BumbleBee系统给出了最新答案:通过创新的“分治-精炼-融合”三级架构,该系统首次实现人形机器人在多样化动作中的稳定控制。
9/5/2025 10:09:47 AM

大模型“记性差一点”反而更聪明!金鱼损失随机剔除token,让AI不再死记硬背

训练大模型时,有时让它“记性差一点”,反而更聪明! 大语言模型如果不加约束,很容易把训练数据原封不动地复刻出来。 为解决这个问题,来自马里兰大学、图宾根大学和马普所的研究团队提出了一个新方法——金鱼损失(Goldfish Loss)。
9/3/2025 2:02:08 PM

最后通牒!Claude聊天/代码「默认」全喂AI训练,你的隐私能被用5年

近日,Anthropic的一项关于消费者条款的更新政策,把网友惹怒了。 在这次条款更新中,Anthropic一改往日坚决不使用用户数据来训练模型的承诺,让现有用户二选一:是否接受自己的数据被用于模型训练。 表面上,Anthropic是把「选择权」交给了用户,但只留了一个月的期限。
9/1/2025 8:58:00 AM

Andrej Karpathy再次看衰强化学习:奖励函数非常可疑,RL环境才是最重要的

AK再次看衰RL本身,当然指的是长期来看刚刚Prime Intellect公司开源了一个叫Environments Hub的平台,简单来说Environments Hub是一个开源的的强化学习环境(RL environments)平台,强化学习环境被认为是下一波人工智能进步的关键瓶颈,但大型实验室正在将其锁定环境是Agent学习的地方,它们定义了世界、规则以及状态 → 动作 → 奖励的反馈循环。 从编程/数学任务到游戏和多轮对话评估,一切都可以被视为环境。 没有它们,强化学习就只是数学,没有任何交互可言详细内容看这里:,以下是AK的观点:在预训练(pretraining)时代,最重要的是互联网文本。
8/29/2025 9:01:40 AM

小扎噩梦来了!MSL两月爆雷8人闪辞,PyTorch元老出走实验室人心崩盘

小扎AI大计还未真正开始,就要凉凉了? 继昨日曝出三人闪辞Meta之后,又一位「超级智能实验室」(MSL)老将官宣离职。 PyTorch核心开发者,现MSL预/后训练工程师——Rohan Varma,在入职Meta六年后,决定离开了。
8/28/2025 3:29:43 PM

教AI「择偶生娃」,复刻自然演化!上交校友提名最佳论文

如果让AI模型像生物一样演化,它们会不会彼此竞争、协作、结合,并繁衍出越来越强的后代? 「物竞天择,适者生存」的进化论思想,是否也适用于AI模型? 就在最近,Sakana AI从自然演化的过程中汲取灵感,提出了一种利用「竞争与吸引力」的自然选择机制,来提升AI模型融合效果的方法。
8/27/2025 9:07:00 AM

喜当爹后,奥特曼自曝神经化学骤变!养娃能为人类做出更优AI决策

OpenAI CEO奥特曼在最近的一次采访中表示,自己成为父亲后,优先事项完全发生了改变。 他坦言,父亲身份「彻底重塑了我的所有优先事项」。 这一变化不仅让他在个人生活中获得了更深刻的感悟,更重要的是也可能会影响他在人工智能领域的决策。
8/25/2025 9:15:00 AM

波士顿动力机器人终于有脑子了!人类故意使绊子也不怕

波士顿动力也搞端到端AI了! 这次升级,Atlas不仅可以听懂自然语言指令,还可以自主规划动作和处理意外。 只见小哥故意合上盖子,机器人仍能识别并打开箱子。
8/22/2025 3:14:27 PM

超越RAG和DAPT!华人团队新研究引热议:即插即用、无需改变原参即可让模型化身领域专家

一个小解码器让所有模型当上领域专家! 华人团队新研究正在引起热议。 他们提出了一种比目前业界主流采用的DAPT(领域自适应预训练)和RAG(检索增强生成)更方便、且成本更低的方法。
8/19/2025 9:12:00 AM