AI在线 AI在线

大模型开始打王者荣耀了

大语言模型可以打王者荣耀了! 图片腾讯最新提出的Think-In-Games (TiG) 框架,直接把大模型丢进王者荣耀里训练。 它不仅能实时理解盘面信息(英雄、发育、兵线、防御塔、资源、视野等),还能打出像人类玩家一样的操作。

大语言模型可以打王者荣耀了!

图片图片

腾讯最新提出的Think-In-Games (TiG) 框架,直接把大模型丢进王者荣耀里训练。它不仅能实时理解盘面信息(英雄、发育、兵线、防御塔、资源、视野等),还能打出像人类玩家一样的操作。

更炸裂的是,靠着这种“边玩边学”的训练方式,让仅14B参数的Qwen-3-14B,干翻了671B的 Deepseek-R1,动作精准度高达90.91%

图片图片

那么问题来了:它是怎么做到的?

TiG:边玩边学

总的来说,TiG将基于强化学习的决策重新定义为一种语言建模任务。大语言模型生成由语言指导的策略,然后根据环境反馈,通过在线强化学习进行迭代优化。

这一方法弥合了传统大语言模型只知道为什么,但无法作出行动;强化学习只知道行动,却无法解释为什么的鸿沟。

为了实现这一方法,研究团队直接让大语言模型在《王者荣耀》中行动,并解释原因。

值得注意的是,在这一框架中,大语言模型主要学习了人类玩家在《王者荣耀》游戏中宏观层面的推理能力

与微观层面动作(如精确技能施放)不同,宏观层面推理优先考虑长期目标和团队协同,涉及制定和执行团队范围的策略,例如控制目标、地图施压和协调团队机动

这也就意味着,与其说TiG是一名职业选手,不如说他是能精准判断场上局势的金牌教练

具体来说,Tig将决策转化为文本,模型通过读取JSON获取游戏状态,然后再从固定菜单(例如推进或防御)中选择宏操作(如推上路”、“夺龙”、“防守基地”),并解释为何如此。

图片图片

举例来说,在上图的游戏场景中,阿古朵,与队友姜子牙在中路推进,目标是敌方一座血量较低的一塔 。

基于此,模型先对游戏状态进行全面评估 。例如,“防御塔和野区保护机制均已失效”(对局已进入中期)。然后分析优先目标(摧毁中路一塔),制定策略(联合姜子牙前往敌方中路一塔,集中火力推塔)并提示风险,

最后,模型将结合英雄的的理解,建议作为射手的阿古朵“保持安全距离输出”,并与姜子牙的控制效果协同配合,并将这一指令输出给玩家“联合姜子牙推掉敌方中路一塔,注意敌方可能埋伏”。

为了实现上面在游戏中边玩边学的效果,研究团队先从真实游戏对局中采样,构建数据集,为了确保每个游戏状态都带有一个宏观级别的动作标签,研究提出了“重新标注算法”

该方法先在帧窗口内进行向后填充,再通过优先级覆盖机制确保每个状态都标注为最关键的宏观动作。这样得到的密集且一致的序列,为后续的 GRPO 训练与基于规则的奖励函数提供了稳健信号。

之后,为了在游戏环境中实现有效的战略推理学习,研究团队采用了Group Relative Policy Optimization (GRPO) 算法,以最大化生成内容的优势,并限制策略与参考模型之间的分歧。

图片图片

在奖励设置方面,TiG使用基于二元规则的奖励,当预测操作与人类游戏玩法匹配时为1,否则为0,从而保持更新的稳定性和成本。

奖励是基于实战积累的过程性知识、人类可读的战略规划,以及依然保持完好的通用语言能力。

训练过程与实验结果

TiG采用多阶段训练方法,结合了监督微调(SFT)和强化学习(RL)来增强模型能力。

  • SFT阶段:从Deepseek-R1中提取训练数据进行SFT。这些数据展示了强大的推理能力,可以帮助较小的模型获取深度推理能力。
  • 在线RL阶段:使用真实游戏数据,并利用GRPO算法训练模型。

在具体的实验中,研究探索了多种训练方法的组合方式。

  • GRPO:仅使用GRPO算法训练基础模型,不进行SFT训练。
  • SFT:仅使用SFT训练数据集训练基础模型 。
  • SFT + GRPO :首先使用SFT训练基础模型,然后应用GRPO 算法进一步训练,以提高模型的推理能力。

(注:为了评估模型的质量,研究设置了以下不同规模的基线模型,包括Qwen-2.5-7B-Instruct、Qwen-2.5-14B-Instruct、Qwen-2.5-32B-Instruct、Qwen-3-14B-Instruct和Deepseek-R1)

实验结果表明:SFT和GRPO的组合能显著提高不同模型规模的性能,Qwen-2.5-32B在应用GRPO后,准确率从 66.67% 提高到86.84%。而Qwen2.5-14B在依次应用SFT和GRPO后,准确率从53.25%提高到83.12%。

图片图片

此外,正如我们开头提到的,经过SFT和GRPO训练(2000步)的Qwen-3-14B达到了90.91%的准确率,超过了参数量大一个数量级的 Deepseek-R1(86.67%)。

综上,TiG不仅弥合了“知其然”与“知其所以然”之间的鸿沟,还在数据量和计算需求显著降低的情况下,取得了与传统RL方法具有竞争力的性能。

参考链接[1]https://arxiv.org/abs/2508.21365[2]https://x.com/rohanpaul_ai/status/1962499431137493195

相关资讯

机器学习|从0开发大模型之DeepSeek的GRPO

DeepSeek-R1的发布为国产大模型争光了(太强了),不过 GRPO 算法源自 DeepSeekMath 7B 模型,该模型在 MATH 基准测试中取得了优异成绩,论文发表于2024年2月份:,以下是该论文的摘要原文:复制翻译如下:复制对比数据1、什么是GRPOGRPO 是一种在线学习算法,核心思想是通过组内相对奖励来估计基线,从而避免使用额外的价值函数模型。 通过在训练期间使用受训模型自身生成的数据来迭代改进,GRPO 旨在最大化生成补全的优势,同时确保模型保持接近参考策略,下图是论文中的算法流程图:GRPOGRPO 是 PPO (Proximal Policy Optimization,近端策略优化,是一种强化学习算法,由OpenAI于2017年提出,旨在解决策略梯度方法中的训练不稳定问题) 的变体,主要区别是:GRPO 省略 value function modelGRPO 奖励计算,改成了一个 q 生成多个 r,然后 reward 打分GRPO算法流程:采样一组输出并计算每个输出的奖励对组内奖励进行归一化处理使用归一化后的奖励计算优势函数通过最大化目标函数更新策略模型迭代训练,逐步优化策略模型论文中的伪代码2、奖励设计huggingface 库提供 GRPOTrainer 可以直接使用 GRPO 训练,参数包括定义奖励模型和函数。 2.1 奖励模型复制这里的 reward_funcs 参数可以传入奖励模型。
4/3/2025 3:40:41 PM
周末程序猿

DeepSeek 用的 GRPO 占用大量内存?有人给出了些破解方法

自 DeepSeek-R1 发布以来,群组相对策略优化(GRPO)因其有效性和易于训练而成为大型语言模型强化学习的热门话题。 R1 论文展示了如何使用 GRPO 从遵循 LLM(DeepSeek-v3)的基本指令转变为推理模型(DeepSeek-R1)。 GRPO 是一种在线学习算法(online learning algorithm),它通过使用训练过程中由训练模型自身生成的数据来进行迭代改进。
2/7/2025 1:45:58 PM
机器之心

DeepSeek 背后的技术:GRPO,基于群组采样的高效大语言模型强化学习训练方法详解

强化学习(Reinforcement Learning, RL)已成为提升大型语言模型(Large Language Models, LLMs)推理能力的重要技术手段,特别是在需要复杂推理的任务中。 DeepSeek 团队在 DeepSeek-Math [2] 和 DeepSeek-R1 [3] 模型中的突破性成果,充分展示了强化学习在增强语言模型数学推理和问题解决能力方面的巨大潜力。 这些成果的取得源于一种创新性的强化学习方法——群组相对策略优化(Group Relative Policy Optimization, GRPO)。
2/17/2025 10:40:20 AM
佚名
  • 1