AI在线 AI在线

RL微调,关键在前10%奖励!基于评分准则,Scale AI等提出新方法

让大模型按照人类意图行事,一直是AI领域的核心挑战。 目前主流的强化学习微调(RFT)方法虽然有效,但存在一个致命弱点:奖励过度优化(reward over-optimization)。 奖励过度优化是大模型对齐的「阿喀琉斯之踵」。

让大模型按照人类意图行事,一直是AI领域的核心挑战。目前主流的强化学习微调(RFT)方法虽然有效,但存在一个致命弱点:奖励过度优化(reward over-optimization)。

奖励过度优化是大模型对齐的「阿喀琉斯之踵」。

简单来说,就是模型学会了「钻空子」——它们不是真正变得更好,而是学会了如何在奖励模型上刷高分,实际输出质量反而下降。这就像考试时学生死记硬背标准答案来应付老师,而不是真正理解知识。

Scale AI的最新研究直击这一痛点,从理论层面揭示了问题的根源,并提出了创新的解决方案。

RL微调,关键在前10%奖励!基于评分准则,Scale AI等提出新方法

论文链接:https://arxiv.org/abs/2509.21500 

代码开源:https://github.com/Jun-Kai-Zhang/rubrics

数据开源:https://huggingface.co/datasets/JunkaiZ/Rubrics

理论突破

高分区才是关键战场

来自Scale AI、UCLA和芝加哥大学的研究团队,首次从理论上给出了明确答案:

奖励过度优化的根源,在于奖励模型在高分区的不准确性。

  • 高奖励区域的准确性决定一切:当代理奖励在高分区域出现偏差时,模型性能会随着训练进程急剧崩溃;而低分区域的误差影响微乎其微。
  • 只需要准确识别Top 2响应:即使只能正确排序前10%的优质回答,模型性能就能接近最优,效果几乎与完美奖励模型相当。

这意味着:我们不需要在所有回复上都准确,只需要准确区分「优秀」和「卓越」!

RL微调,关键在前10%奖励!基于评分准则,Scale AI等提出新方法

方法创新

用评分准则捕捉「卓越」

理论清晰了,但新问题来了:如何获得高质量样本来训练奖励模型?这里存在一个悖论:

从基础模型采样?太低效了——高分样本本来就稀少。

用更强模型生成?又会引入分布偏移——奖励模型可能学到的是表面特征而非真实能力。

研究团队提出了基于评分准则(rubric)的解决方案。评分准则是一组衡量回答好坏的明确准则,每个准则都有相应权重。比如对于医疗诊断问题,可能包括:

高权重准则:「正确识别疾病」「标明紧急程度」

低权重准则:「提及治疗方案」

Rubric的核心优势在于:

  • 将评分分解为多个可验证的具体标准
  • 每个标准都是二元判断(满足/不满足)
  • 最终得分是满足标准的加权平均

更重要的是,Rubric天然具有分布不变性——它关注的是回复本身的质量特征,而非生成来源。

RL微调,关键在前10%奖励!基于评分准则,Scale AI等提出新方法

两大原则:如何构建有效的Rubric

为了让Rubric真正捕捉高分区的差异,研究团队提出两大关键原则:

  • 原则1:区分「优秀」与「卓越」。通过对比两个都很好的回答,识别它们的细微差异,将这些差异编码为新的评分准则。
  • 原则2:在多样化的优质回答中寻找差异。扩大候选池,从16个顶尖模型中采样,确保覆盖不同的优秀回答模式。

RL微调,关键在前10%奖励!基于评分准则,Scale AI等提出新方法

实验验证

全面碾压基线方法

研究在通用和医疗两个领域进行了大规模实验:

性能提升明显

  • 使用优质样本改进的评分准则,胜率从31.3%提升至39.7%
  • 医疗领域的HealthBench得分从0.3004提升至0.3513

有效缓解奖励过度优化

  • 初始评分准则训练的模型在60步后性能急剧下降
  • 改进后的评分准则将崩溃点推迟到160步,延长了近3倍

RL微调,关键在前10%奖励!基于评分准则,Scale AI等提出新方法

高奖励区域准确率大幅提升

评分准则改进后,在高奖励区域的准确率提升显著,而低奖励区域的准确率基本不变,完美验证了理论预测。

质的飞跃:优秀样本带来更深层的改进

研究团队还分析了不同质量样本带来的Rubric改进类型:

优秀样本驱动的改进

  • 添加惩罚项,避免明显错误
  • 放宽过于严格的标准
  • 纠正错误或对齐预期标准

卓越样本驱动的改进

  • 将复杂标准分解为子标准
  • 增强验证和证据标准
  • 明确范围、边界和约束
  • 纳入风险分析和安全约束

以医疗案例为例:

初始Rubric只要求「提到正确诊断」和「说明紧急性」——两个优秀回复都满足。

精炼后的Rubric新增标准:「明确指出需要紧急影像学检查(如增强CT或MRI/MRV)来确认诊断」,成功区分出了更好的那个。

这就是质的飞跃:从表面判断到深层验证标准。

产业意义与展望

这项研究为大模型对齐提供了全新视角:

  1. 理论指导实践:明确了奖励建模的优化方向——聚焦高奖励区域
  2. 方法可操作性强:基于评分准则的方法易于实施和解释
  3. 领域适应性好:在医疗等专业领域表现尤其出色

当然,研究也指出了当前的局限:

  • 简单的加权平均可能不是最优的分数聚合方式

对于大模型从业者来说,这项工作提供了一个清晰的方向:

不要试图在所有地方都完美,专注于准确区分顶尖回复,这才是对齐的关键。

相关资讯

世界模型再进化!博士AdaWM:自适应世界模型规划新SOTA

本文经自动驾驶之心公众号授权转载,转载请联系出处。 论文链接::基于自适应世界模型的自动驾驶规划。 基于世界模型的强化学习(RL)已经成为一种有前景的自动驾驶方法,它学习潜在动态模型并且用其训练规划策略。
1/26/2025 11:00:00 AM
自动驾驶专栏

超越DeepSeek-R1关键RL算法GRPO,CMU「元强化微调」新范式登场

大语言模型(LLM)在推理领域的最新成果表明了通过扩展测试时计算来提高推理能力的潜力,比如 OpenAI 的 o1 系列。 通常来说,这些方法在训练模型时可以产生比典型正确解决方案更长的轨迹,并包含了试图实现某些「算法」的 token:例如反思前一个答案、规划或实现某种形式的线性搜索。 这些方法包括显式地微调预训练 LLM 以适应算法行为,例如对搜索数据进行监督微调(SFT)或针对 0/1 正确性奖励运行结果奖励(outcome-reward,OR)RL。
3/13/2025 11:07:30 AM
机器之心

业界突破多模态泛化推理能力,OPPO研究院&港科广提出OThink-MR1技术

用上动态强化学习,多模态大模型也能实现泛化推理了? 来自OPPO研究院和港科广的科研人员提出了一项新技术——OThink-MR1,将强化学习扩展到多模态语言模型,帮助其更好地应对各种复杂任务和新场景。 研究人员表示,这一技术使业界突破多模态泛化推理能力。
3/31/2025 9:22:00 AM
量子位
  • 1