AI在线 AI在线

开源RL框架Verlog来了,专为LLM智能体打造,400回合不成问题

AI 时代,智能体对短期对话的处理能力已不再是难题。 真正的挑战是让智能体在数百步的探索中依然保持清晰的推理与稳健的决策。 传统的强化学习框架在几十步内尚能应付,但一旦任务延展至数百步,奖励稀疏、历史冗长、策略崩塌便接踵而至。

AI 时代,智能体对短期对话的处理能力已不再是难题。真正的挑战是让智能体在数百步的探索中依然保持清晰的推理与稳健的决策。

传统的强化学习框架在几十步内尚能应付,但一旦任务延展至数百步,奖励稀疏、历史冗长、策略崩塌便接踵而至。

为了应对这些挑战,来自卡内基梅隆大学、香港大学等机构的研究者提出了 Verlog ,试图打破这一困境。

具体而言,Verlog 是一个多轮强化学习框架,专为具有高度可变回合(episode)长度的长时程(long-horizon) LLM-Agent 任务而设计。

它在继承 VeRL 和 BALROG 的基础上,并遵循 pytorch-a2c-ppo-acktr-gail 的成熟设计原则,引入了一系列专门优化手段,从而在任务跨度从短暂交互到数百回合时,依然能够实现稳定而高效的训练。

以往的框架(如 VeRL 和 RAGEN)能够较好地处理约 10 回合的任务,verl-agent 则可扩展至 50 回合。而 Verlog 则被设计用于超过 400 回合的环境,使其在复杂的长期决策任务中具备独特优势。

这一能力已在 BabyAI、BabaIsAI 和 Crafter 等高难度领域得到验证。以 Crafter 为例,其回合长度范围在 70 到 400 步之间,平均约为 190 步。在这些充满挑战的环境中,Verlog 都能够开箱即用地展现出强劲的性能。

图片
  • 博客地址:https://blog.ml.cmu.edu/2025/09/15/verlog-a-multi-turn-rl-framework-for-llm-agents/

  • 项目主页:https://agentic-intelligence-lab.org/2025/08/15/technical-post.html

图片

方法介绍

基础模型

在模型方面,本文基于 Qwen-2.5 的 Instruct 变体(Qwen-2.5-3B/7B-Instruct)构建。

这样做主要有两个原因:

一是,它可以与 BALROG 无缝集成(BALROG 是一个旨在评估 Instruct 模型在一系列基准测试中零样本性能的框架);

其次,它允许研究者可以直接使用基准测试提示,而无需太多修改。

图片

      BabyAI 使用的提示模板

记忆机制

本文不是将整个轨迹全部放入上下文窗口中,而是仅保留最新的 n + 1 个回合。

这样做带来的影响是,对于 3B 参数的 Qwen 模型,性能在 n = 1 或 2 时达到峰值,而当 n 增加到 4 或 8 时性能下降。

作者推测,模型性能下降的原因是 3B 模型在处理长上下文方面的能力有限,例如,当 n = 8 时,提示词长度约为 4600 个 token。

不过,这一趋势是否适用于更大规模的模型,仍待研究。

Dual Discounting GAE 算法

为了鼓励智能体在更少的环境步数内完成任务,本文将 token 图片与 step 图片进行了解耦。并设置如下参数:

图片

此外,本文 GAE 是递归计算的:

图片

其中,

图片

递归从最后一轮的最后一个 token 开始,向后进行。处理完最后一轮的所有 token 后,移至倒数第二轮的最后一个 token,并继续递归执行此过程。在此过程中,所有状态 token 都会被跳过。

图片

实验结果

该研究在三个颇具挑战性的基准上测试了 Verlog:包括 Crafter、BabyAI 和 BabaIsAI。实验模型包括 Qwen2.5-Instruct 。

图片

在 Crafter 环境中,本文使用 8 张 H100(82GB 显存)GPU 对 Qwen2.5-7B-Instruct 模型训练了大约 36 小时。此外,针对 BabyAI 与 BabaIsAI 环境,本文采用 4 张 A40(48GB 显存)GPU 对 Qwen2.5-3B-Instruct 模型训练约 24 小时。

三个实验环境表明,Verlog 展现出稳定的训练能力,不管是在长周期、稀疏奖励,还是在可变 episode 长度条件下。这也证明了该框架能自然适应从短周期到超长周期多回合任务的规模化训练。

总结

Verlog 针对在构建长时程、多回合任务的 LLM Agent 时面临的若干核心工程挑战,提出了系统性的解决方案,包括:

  • 长交互历史的处理:通过记忆机制和回合级抽象来管理历史信息。

  • 稀疏奖励下的训练稳定性:结合 dual-discounting GAE 和价值函数预训练来增强稳定性。

  • 轨迹长度可变的管理:通过固定回合批处理(fixed-turn batching)和自举式价值估计来处理变长轨迹。

  • 提升动作有效性:利用针对性的提示工程和默认动作替换,使训练过程中 >95% 的动作均为有效动作。

作者表示,Verlog 的定位是一个灵活的研究平台,目的是推动长时程 LLM-Agent 强化学习的发展。

相关资讯

黄学东等多名华人当选,2023美国工程院院士名单出炉

今日,美国工程院公布了新增院士名单,包括 106 名院士和 18 名外籍院士。
2/8/2023 10:29:00 AM
机器之心

一篇推文看一年!Jim Fan力荐2025必读清单:50篇论文,扫盲「全领域AI实战」

别再反复看Transformer之类的古董级论文了,该更新论文清单了! 现行的AI从工程技术角度可以分为十个领域:前沿大模型、基准评估、提示思维链、检索增强生成、智能体、代码生成、视觉、声音、图像/视频扩散、微调,每个领域选出5篇代表作和相关工作,看完 实践=AI全栈大神! 前沿大模型OpenAI发布的ChatGPT把大模型带入普通消费者的日常生活中,旗下的GPT系列模型也一直是行业标杆,其中GPT1/2/3, Codex, InstructGPT, GPT4都有论文,GPT3.5, 4o, o1和o3只有相关的宣发活动。
1/10/2025 9:20:00 AM
新智元

细粒度对齐无需仔细标注了!淘天提出视觉锚定奖励,自我校准实现多模态对齐

AIxiv专栏是AI在线发布学术、技术内容的栏目。 过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。 如果您有优秀的工作想要分享,欢迎投稿或者联系报道。
1/19/2025 12:07:00 PM
机器之心
  • 1