VLA
阿德莱德大学吴琦:VLN 仍是 VLA 的未竟之战丨具身先锋十人谈
作者 | 赖文昕编辑 | 陈彩娴2018 年 6 月,在澳大利亚机器人视觉研究中心(ACRV)做博士后研究员的吴琦和博士生 Peter Anderson 首次将 VL(视觉-语言)和彼时机器人领域主流的导航方向联系起来,在 CVPR 2018 发表了第一篇 VLN(视觉-语言-导航)工作;紧接着,Abhishek Das 作为一作发表的“EmbodiedQA(具身问答)”又让“Embodied”一词走入科研视野。 一个月后,一年一度的 NLP 领域顶会 ACL 在冬季的墨尔本召开。 在火热的会场里,吴琦、Peter Anderson 和 Abhishek Das 举办了一场题为“将语言和视觉与动作联系起来” 的 tutorial,真正地开启了 VLA(视觉-语言-动作)这个全新领域。
4/29/2025 4:21:00 PM
赖文昕
Figure机器人进厂打工,8小时速成物流分拣大师!自研VLA模型全面升级
踹掉OpenAI之后,Figure的迭代堪称神速! 几天前才发布了第一款自研视觉-语言-动作(VLA)模型Helix,统一了感知、语言理解和学习控制。 就在刚刚,他们又在一个全新场景中实现了机器人应用的落地——物流包裹操作和分拣。
2/27/2025 12:12:28 PM
新智元
京东联合地瓜机器人等多家企业高校,推出业内首个具身智能原子技能库架构
具身智能技术突破与应用是通向 AGI 的必经之路,目前全球科技公司正加速布局,包括特斯拉 Optimus、Agility Digit、波士顿动力 Atlas 及 Figure AI 等,今年蛇年春晚机器人“扭秧歌”也成为了人们茶余饭后的谈资。 随着大模型技术的进步,具身智能也迎来了快速的发展。 但在国内众多企业与高校推动相关技术发展的过程中,核心挑战仍在于具身操作泛化能力,即如何在有限具身数据下,使机器人适应复杂场景并实现技能高效迁移。
2/20/2025 10:09:00 AM
新闻助手
VLA 技术引领智驾竞赛,英伟达助力黑马企业迅速抢占市场份额
在智能驾驶行业,2025年被视为 “VLA 上车元年”,这标志着一种全新的技术范式正在崭露头角。 VLA,即视觉语言动作模型(Vision-Language-Action Model),最初由 DeepMind 于2023年提出,旨在提升机器人对环境的理解和反应能力。 近年来,这一技术在自动驾驶领域受到了极大的关注。
1/25/2025 4:26:00 PM
AI在线
- 1
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
数据
模型
机器人
谷歌
大模型
Midjourney
智能
用户
开源
学习
GPT
微软
Meta
图像
AI创作
技术
论文
Stable Diffusion
马斯克
Gemini
算法
蛋白质
芯片
代码
生成式
英伟达
腾讯
神经网络
研究
计算
Anthropic
3D
Sora
AI for Science
AI设计
机器学习
开发者
GPU
AI视频
华为
场景
人形机器人
预测
百度
苹果
伟达
Transformer
深度学习
xAI
模态
字节跳动
Claude
大语言模型
搜索
驾驶
具身智能
神器推荐
文本
Copilot
LLaMA
算力
安全
视觉
视频生成
训练
干货合集
应用
大型语言模型
科技
亚马逊
智能体
DeepMind
特斯拉