AI在线 AI在线

训练

Nature子刊 | 上交突破极限,端到端无人机高速避障,可微分物理实现

想象一下:在未知森林、城市废墟甚至障碍密布的室内空间,一群无人机像飞鸟般快速穿梭,不依赖地图、不靠通信、也无需昂贵设备。 这一设想,如今成为现实! 上海交通大学研究团队提出了一种融合无人机物理建模与深度学习的端到端方法,该研究首次将可微分物理训练的策略成功部署到现实机器人中,实现了一套真正意义上的「轻量、可部署、可协同」无人机集群端到端自主导航方案,并在鲁棒性、机动性上大幅领先现有的方案。
7/28/2025 9:18:00 AM

90后养老就靠它?清华系机器人WAIC炫技,叠衣取货秀翻全场

最近,马斯克的「擎天柱卖爆米花」再次让具身智能进入大众视野。 特斯拉主题餐厅最近试营业,Optimus在餐厅上岗,装爆米花的动作娴熟流畅,引得大批人类围观——现在的具身智能,已经进化成这样了吗! 注意看他的眼睛和手,尤其是手中的盒子没有被捏扁变形,「眼睛」还会随着动作向你看来。
7/28/2025 9:16:00 AM

刷新无监督异常检测上限!首提「匹配代价滤波for异常检测」范式 | ICML'25

你是否想过,工厂是如何在很多种不同产品中,精准识别出浅浅的划痕、缺失的元件,甚至是几乎察觉不到的微小缺陷? 这远比「图像识别」要复杂。 在工业质检、安防监控、医疗影像等场景中,无监督异常检测(Unsupervised Anomaly Detection, UAD)日益成为核心技术之一。
7/28/2025 9:03:00 AM

港科大&北京人形提出LOVON:足式机器人开放世界全域目标追踪新范式!

本文一作彭道杰,香港科技大学广州在读博士生;共同一作曹嘉航,北京人形机器人创新中心实习生;共同一作张强香港科技大学广州在读博士生,北京人形机器人创新中心学术委员会主任;通讯导师马骏,香港科技大学广州&香港科技大学助理教授。 在复杂的开放环境中,让足式机器人像人类一样自主完成「先跑到椅子旁,再快速接近行人」这类长程多目标任务,一直是 robotics 领域的棘手难题。 传统方法要么局限于固定目标类别,要么难以应对运动中的视觉抖动、目标丢失等实时挑战,导致机器人在真实场景中常常「迷路」或「认错对象」。
7/25/2025 2:59:51 PM

亿级短视频数据突破具身智能Scaling Law!Being-H0提出VLA训练新范式

如何让机器人从看懂世界,到理解意图,再到做出动作,是具身智能领域当下最受关注的技术重点。 但真机数据的匮乏,正在使对应的视觉-语言-动作(VLA)模型面临发展瓶颈。 尽管业界已投入大量资源构建数据平台(如马斯克主导的“数据工厂”项目),现有真机数据规模仍较模型规模定律所需的上亿级训练样本相差三个数量级。
7/25/2025 9:31:49 AM

马斯克23万GPU训练Grok-这规模让OpenAI都要颤抖

马斯克昨天在X上发了一条消息:"xAI的目标是在5年内部署相当于5000万个H100的AI算力。 "5000万个H100,这什么概念? 我算了一下,这相当于35个核电站的发电量才能供得起。
7/25/2025 9:25:05 AM
阿丸笔记

陶哲轩回应OpenAI新模型IMO夺金!GPT-5测试版也曝光了

OpenAI最新模型曝光了,在2025年国际数学奥林匹克竞赛(IMO)上达到了金牌水平! IMO被公认为全球最顶尖的数学竞赛,每年只有不到8%的参赛者能够获得金牌。 而现在,一个AI模型做到了。
7/21/2025 9:00:00 AM

思维链之父跳槽Meta,不只因为1亿美元!离开OpenAI前泄天机

硅谷人才争夺战,火热升级! 过去,是OpenAI从谷歌等公司吸引人才;现在,Meta直接砸钱抢人。 顶尖AI人才的薪酬包可谓天价,1亿美元还是扎克伯格给的起步价!
7/18/2025 10:04:44 AM

小哥硬核手搓AI桌宠!接入GPT-4o,听得懂人话还能互动,方案可复现

大火的AI宠物,自己手搓一个更有性价比? ! 大脑还是GPT-4o的那种,外表长酱紫:这就是国外一个小哥受到了前段时间火遍全网的皮克斯台灯机器人启发,给自己手搓的“小宠物”。
7/17/2025 9:08:41 AM

模仿学习新范式,Chain-of-Action:轨迹自回归实现动作推理

论文标题:Chain-of-Action: Trajectory Autoregressive Modeling for Robotic Manipulation主页链接:::(Embodied AI)作为人工智能领域的前沿方向,旨在赋予机器人或智能体在物理世界中感知、决策和行动的能力。 近年来,尽管视觉 - 语言 - 动作模型(Vision Language Action, VLA)已经取得了诸多进展,但具身智能领域尚未迎来 「GPT 时刻」。 越来越多的研究人员开始相信,仅仅增加模型规模和数据量似乎不足以创造出通用操作模型,如果我们想要充分释放现有数据的潜力,就需要找到更有效的机器人操作建模方法。
7/16/2025 10:42:32 AM

比Adam更有效,POET从谱不变原理出发,让LLM训练又稳又快

Zeju Qiu和Tim Z. Xiao是德国马普所博士生,Simon Buchholz和Maximilian Dax担任德国马普所博士后研究员,Bernhard Schölkopf是德国马普所所长,Weiyang Liu是香港中文大学计算机系助理教授。 随着大型语言模型(LLM)推动人工智能领域取得突破性进展,如何实现高效、稳定的超大规模模型训练,始终是该领域最富挑战性的核心议题之一。
7/15/2025 9:27:29 AM

ICCV 2025 | 清华&腾讯混元X发现「视觉头」机制:仅5%注意力头负责多模态视觉理解

本文的主要作者来自清华大学智能视觉实验室(i-Vision Group)、腾讯混元 X 组。 本文的共同第一作者为清华大学自动化系本科生王嘉辉和博士生刘祖炎,本文的通讯作者为清华大学自动化系鲁继文教授。 多模态大模型通常是在大型预训练语言模型(LLM)的基础上扩展而来。
7/15/2025 9:00:00 AM

AI失忆术!只需3个注意力头,就能让大模型忘记「狗会叫」

大模型在预训练阶段「读万卷书」,几乎囊括了全网的知识与语料。 但你有没有想过:我们能否让它「选择性遗忘」某些事实,甚至是常识性事实,比如「狗会叫」? 近日,Meta和纽约大学的研究团队发布了突破性论文《From Concepts to Components》,首次揭示了在 Transformer架构下,精准定位并控制AI认知模块的突破性方法。
7/14/2025 9:20:00 AM

这个AI精准模拟人类行为大脑状态,上Nature了

首个能跨领域精准预测人类认知的基础模型诞生! 不仅可以完全预判你的行为,还能知道你是如何思考、以及为什么思考。 这是一项最新登上Nature的突破性研究,来自德国的研究团队只用了5天训练时间就开发出人类认知的通用计算模型——Centaur。
7/14/2025 9:18:26 AM

VLA 推理新范式!一致性模型 CEED-VLA 实现四倍加速!

本文第一作者为香港科技大学(广州)机器人系一年级博士生宋文轩,主要研究方向为VLA模型,共同第一作者是来自香港科技大学广州的研究助理陈家毅,项目leader为浙江大学和西湖大学联合培养博士生丁鹏翔,他们也是具身智能领域开源项目OpenHelix以及LLaVA-VLA的研究团队。 通讯作者为香港科技大学广州的李昊昂教授,他是今年的CVPR2025 Best Paper Candidate的获得者。 近年来,视觉 - 语言 - 动作(Vision-Language-Action, VLA)模型因其出色的多模态理解与泛化能力,已成为机器人领域的重要研究方向。
7/14/2025 9:14:00 AM

EasyCache:无需训练的视频扩散模型推理加速——极简高效的视频生成提速方案

论文作者团队简介:本文第一作者周鑫,共同第一作者梁定康,均为华中科技大学博士生,导师为白翔教授。 合作者包括华中科技大学陈楷锦、冯天瑞、林鸿凯,旷视科技陈习武、丁宜康、谭飞杨和香港大学赵恒爽助理教授。 在HunyuanVideo上,EasyCache在复杂场景下保持与原视频的一致外观,同时显著加速1.
7/14/2025 8:51:00 AM

氛围编程后,Karpathy又双叒有新「脑洞」!PDF将死,未来99%是AI氛围阅读

Karpathy大神这次继Vibe Coding氛围编程后,又想造全新概念了! 大神说他早就抱怨了很多次,未来99%的「Attention」(注意力)即将被AI,而非人类关注。 但是现在99.9%的互联网内容还是「写给人看的」,不论是网页、视频还是科研PDF论文。
7/14/2025 8:44:00 AM

单向VLM变双向!人大斯坦福等提出MoCa框架:双向多模态编码器

预训练的视觉语言模型(VLM)因其强大的图文联合建模能力,在多种任务上展现出巨大潜力,也成为了许多目前广泛使用的多模态嵌入模型的基础。 然而,这些使用因果注意力机制的多模态嵌入模型在多模态嵌入任务中存在三个关键限制:表示能力弱:因果注意力机制单向预测的特性,限制了模型充分捕获双向跨模态的深层语义。 泛化性差:传统模型多依赖于简单的图文对训练数据,缺乏更广泛、更丰富的数据源,难以在新任务或新领域快速泛化。
7/11/2025 9:10:00 AM