AI在线 AI在线

VLA

阿德莱德大学吴琦:VLN 仍是 VLA 的未竟之战丨具身先锋十人谈

作者 | 赖文昕编辑 | 陈彩娴2018 年 6 月,在澳大利亚机器人视觉研究中心(ACRV)做博士后研究员的吴琦和博士生 Peter Anderson 首次将 VL(视觉-语言)和彼时机器人领域主流的导航方向联系起来,在 CVPR 2018 发表了第一篇 VLN(视觉-语言-导航)工作;紧接着,Abhishek Das 作为一作发表的“EmbodiedQA(具身问答)”又让“Embodied”一词走入科研视野。 一个月后,一年一度的 NLP 领域顶会 ACL 在冬季的墨尔本召开。 在火热的会场里,吴琦、Peter Anderson 和 Abhishek Das 举办了一场题为“将语言和视觉与动作联系起来” 的 tutorial,真正地开启了 VLA(视觉-语言-动作)这个全新领域。
4/29/2025 4:21:00 PM
赖文昕

Figure机器人进厂打工,8小时速成物流分拣大师!自研VLA模型全面升级

踹掉OpenAI之后,Figure的迭代堪称神速! 几天前才发布了第一款自研视觉-语言-动作(VLA)模型Helix,统一了感知、语言理解和学习控制。 就在刚刚,他们又在一个全新场景中实现了机器人应用的落地——物流包裹操作和分拣。
2/27/2025 12:12:28 PM
新智元

京东联合地瓜机器人等多家企业高校,推出业内首个具身智能原子技能库架构

具身智能技术突破与应用是通向 AGI 的必经之路,目前全球科技公司正加速布局,包括特斯拉 Optimus、Agility Digit、波士顿动力 Atlas 及 Figure AI 等,今年蛇年春晚机器人“扭秧歌”也成为了人们茶余饭后的谈资。 随着大模型技术的进步,具身智能也迎来了快速的发展。 但在国内众多企业与高校推动相关技术发展的过程中,核心挑战仍在于具身操作泛化能力,即如何在有限具身数据下,使机器人适应复杂场景并实现技能高效迁移。
2/20/2025 10:09:00 AM
新闻助手

VLA 技术引领智驾竞赛,英伟达助力黑马企业迅速抢占市场份额

在智能驾驶行业,2025年被视为 “VLA 上车元年”,这标志着一种全新的技术范式正在崭露头角。 VLA,即视觉语言动作模型(Vision-Language-Action Model),最初由 DeepMind 于2023年提出,旨在提升机器人对环境的理解和反应能力。 近年来,这一技术在自动驾驶领域受到了极大的关注。
1/25/2025 4:26:00 PM
AI在线
  • 1