AI在线 AI在线

56倍加速生成式策略:西交大提出EfficientFlow,迈向高效具身智能

本文共同第一作者为西安交通大学硕士生常建磊和博士生梅若风。 柯炜为西安交通大学副教授。 论文通讯作者为西安交通大学教授许翔宇,其研究方向涵盖三维视觉、生成式 AI 与具身智能(个人主页:)。

图片

本文共同第一作者为西安交通大学硕士生常建磊和博士生梅若风。柯炜为西安交通大学副教授。论文通讯作者为西安交通大学教授许翔宇,其研究方向涵盖三维视觉、生成式 AI 与具身智能(个人主页:https://xuxy09.github.io/)。

生成式模型正在成为机器人和具身智能领域的重要范式,它能够从高维视觉观测中直接生成复杂、灵活的动作策略,在操作、抓取等任务中表现亮眼。但在真实系统中,这类方法仍面临两大「硬伤」:一是训练极度依赖大规模演示数据,二是推理阶段需要大量迭代,动作生成太慢,难以实时控制。

针对这一核心瓶颈,西安交通大学研究团队提出了全新的生成式策略学习方法 EfficientFlow。该方法通过将等变建模与高效流匹配(Flow Matching)深度融合,在显著提升数据效率的同时,大幅压缩推理所需的迭代步数,在多个机器人操作基准上实现了 SOTA 的性能,并将推理速度提升一个数量级以上。56倍加速生成式策略:西交大提出EfficientFlow,迈向高效具身智能

相关论文《EfficientFlow: Efficient Equivariant Flow Policy Learning for Embodied AI》已被 AAAI 2026 接收,代码已开源

图片
  • 论文地址:https://arxiv.org/pdf/2512.02020

  • 项目主页:https://efficientflow.github.io/

  • GitHub:https://github.com/chang-jl/EfficientFlow

技术亮点:用物理直觉重塑生成式策略

1. 加速度正则化:让生成轨迹更直、更快

传统流匹配的一大痛点是学习到的流场曲率过大,导致推理时仍需多步迭代才能拟合。

怎么让生成轨迹变直? EfficientFlow 的设计灵感源于物理直觉:现实中平滑的运动,往往加速度很小。 因此,EfficientFlow 在损失函数中引入了加速度正则项,鼓励样本从噪声分布向数据分布演化的过程也是平滑且接近匀速的:

图片

其中图片是正则化系数。在实践中,采用图片,在早期时间鼓励更平滑的轨迹,而在图片时则优先考虑准确性。

加速度正则项可以近似为:

图片

然而,该式难以直接计算,因为图片图片位于同一条未知的流轨迹上。为克服这一困难,EfficientFlow 引入了流加速度上界(FABO):

图片

其中,图片图片 来自同一个条件概率路径,很容易通过采样得到。

本质上,FABO 是一个易于计算且有效的代理损失。同时,上界 FABO 与原式的差值等效于 图片,可以看作对雅可比矩阵 图片 的正则化,让模型生成的策略更稳、更鲁棒。

2. 等变网络:让模型学会「举一反三」

EfficientFlow 等变设计的核心逻辑非常直观:如果输入的视觉场景旋转了一定角度,那么机器人输出的动作自然也该跟随旋转相同的角度。这带来了巨大的数据优势,相当于一条数据就可以产生多条数据的效果。模型只需学习物体在一个角度下的操作,就能自动泛化到多个旋转角度,真正实现了「举一反三」。

图片

EfficientFlow 基于 escnn 库构建,将机器人在时间图片的动作表示为一个 10 维向量 图片,包含 6D 旋转表示、3D 平移向量和标量抓手宽度。动作输出对应的等变表示为:

图片

这种表示使得图片能够生成遵循任务 图片 对称性的预测动作,从而确保在场景进行平面旋转时行为的一致性。

等变网络图片的输入是时间 t 、动作序列 图片和观测图片。模型将等变群设定为一个有限循环子群图片,使用一个等变观测编码器将观测图片 映射为嵌入 图片,使用一个等变动作编码器将动作序列图片 映射为嵌入 图片,编码后的嵌入图片, 图片 与时间 t 一起被输入到等变神经网络中。得益于各部件的等变设计,模型实现了从原始输入到预测动作的全流程 图片等变性。

图片

3. 时间一致性策略:快,还要稳

在生成动作序列时,由于相邻的片段通常是独立预测,策略可能会在不同的行为模式间切换,导致长期执行过程中的不连贯。为了解决这个问题,EfficientFlow 采用 Diffusion Policy 中的时间重叠策略:每个预测序列仅执行前 图片步,而剩余的 图片 步则与从时间 图片开始的后续预测重叠。通过生成具有相似重叠部分的相邻动作序列,可以实现长期的连贯性。

受 IMLE Policy 的启发,算法还采用了一种批量轨迹选择与周期性重置策略,该策略在多模态表达能力与时间连贯性之间取得了平衡。在推理阶段,EfficientFlow 从高斯分布中采样 m 个初始噪声向量 图片,并通过模型演化每一个向量,生成 m 条候选动作轨迹 图片。然后,选择重叠片段与上一条轨迹匹配度最高的轨迹执行。

为了保持模型探索多样化行为的能力,模型引入了周期性重置:每 10 个预测周期,从批次中随机选择一条轨迹进行执行,而不是选择最小化重叠距离的那一条。这种方法在保持多模态性的同时提高了时间一致性,并且由于并行化处理,批量化设计确保了推理时间的额外开销极小。

实验效果:少数据、少步数,也能打 SOTA

在 MimicGen 等多个机器人操作基准中,EfficientFlow 在有限数据条件下展现出媲美甚至超过现有 SOTA 方法的成功率。更关键的是推理效率:在 1 步推理下,EfficientFlow 就能接近 EquiDiff 100 步推理的平均性能,单步推理速度提升 56 倍,5 步推理也有近 20 倍加速。消融实验进一步表明,加速度正则化与等变建模缺一不可,共同构成了高效生成式策略的关键。

图片56倍加速生成式策略:西交大提出EfficientFlow,迈向高效具身智能

相关资讯

AAAI 2026|教会视频扩散模型「理解科学现象」:从初始帧生成整个物理演化

AAAI 2026|教会视频扩散模型「理解科学现象」:从初始帧生成整个物理演化

近年来,Stable Diffusion、CogVideoX 等视频生成模型在自然场景中表现惊艳,但面对科学现象 —— 如流体模拟或气象过程 —— 却常常 “乱画”:如下视频所示,生成的流体很容易产生违背物理直觉的现象,比如气旋逆向旋转或整体平移等等。 上述问题的根源在于,这些模型缺乏对科学规律的内在理解。 它们学习到的只是像素分布,而非支配这些分布的动力学方程。
11/15/2025 8:43:00 PM 机器之心
AAAI 2026 Oral | 拒绝「一刀切」!AdaMCoT:让大模型学会「看题下菜碟」,动态选择最佳思考语言

AAAI 2026 Oral | 拒绝「一刀切」!AdaMCoT:让大模型学会「看题下菜碟」,动态选择最佳思考语言

多语言大模型(MLLM)在面对多语言任务时,往往面临一个选择难题:是用原来的语言直接回答,还是翻译成高资源语言去推理? 实际上,不同的语言在模型内部承载着不同的「特长」。 比如英语可能逻辑性强,适合科学推理;而中文或印尼语在处理特定文化背景或押韵任务时,可能比英语更具优势。
12/14/2025 12:11:00 AM 机器之心
AAAI 2026 | 革新电影配音工业流程:AI首次学会「导演-演员」配音协作模式

AAAI 2026 | 革新电影配音工业流程:AI首次学会「导演-演员」配音协作模式

你是否也觉得,AI 配音的语调总是差了那么点 “人情味”? 它能把台词念得字正腔圆,口型分秒不差,但角色的喜怒哀乐却总是难以触及灵魂深处。 问题出在哪里?
12/15/2025 10:31:00 AM 机器之心