Rule-Based Rewards
RLHF不够用了,OpenAI设计出了新的奖励机制
OpenAI 的新奖励机制,让大模型更听话了。自大模型兴起以来,使用强化学习从人类反馈(RLHF)中微调语言模型一直是确保 AI 准确遵循指令的首选方法。为了确保 AI 系统安全运行并与人类价值观保持一致,我们需要定义期望行为并收集人类反馈来训练「奖励模型」。这种模型通过发出期望的动作来指导 AI。但是,收集这些常规和重复任务的人类反馈通常效率不高。此外,如果安全政策发生变化,已经收集的反馈可能会过时,需要新的数据。我们能否构建一种新的机制来完成这些任务?近日,OpenAI 公布了一种教导 AI 模型遵守安全政策的
7/25/2024 1:47:00 PM
机器之心
- 1
资讯热榜
Microsoft Releases 700 Real AI Cases to Explore New Intelligent Work Models
微软发布 700 个真实 AI 案例,探索智能化工作新模式
腾讯LeVo来袭!媲美Suno 4.5的AI唱歌模型,支持零样本音色克隆
Former DeepSeek executive secretly starts new AI Agent project, already backed by top VC
Li Hang, head of ByteDance AI Lab, resigns; Seed team enters adjustment period
Luo Yonghao's digital person achieves success in its first live broadcast on Baidu e-commerce: GMV exceeds that of a real person in an hour in 26 minutes
OpenAI Upgrades ChatGPT Search Functionality to Provide More Precise and Smarter Responses
MiniMax-M1开源!1M超长上下文推理,AI新王者仅53万美元打造!
标签云
人工智能
AI
OpenAI
AIGC
模型
ChatGPT
DeepSeek
AI绘画
谷歌
数据
机器人
大模型
Midjourney
用户
智能
开源
微软
Meta
GPT
学习
图像
技术
AI创作
Gemini
论文
马斯克
Stable Diffusion
算法
英伟达
代码
Anthropic
芯片
开发者
生成式
蛋白质
腾讯
训练
智能体
神经网络
3D
研究
苹果
生成
计算
机器学习
Sora
Claude
AI设计
AI for Science
GPU
AI视频
人形机器人
华为
LLM
搜索
百度
xAI
场景
大语言模型
预测
伟达
字节跳动
深度学习
Agent
Transformer
工具
视觉
模态
神器推荐
RAG
具身智能
文本
大型语言模型
LLaMA
算力
Copilot
API
驾驶
应用
架构