OpenRLHF
这个团队做了OpenAI没Open的技术,开源OpenRLHF让对齐大模型超简单
随着大型语言模型(LLM)规模不断增大,其性能也在不断提升。尽管如此,LLM 依然面临着一个关键难题:与人类的价值和意图对齐。在解决这一难题方面,一种强大的技术是根据人类反馈的强化学习(RLHF)。但是,随着模型越来越大,RLHF 通常需要维持多个模型以及越来越复杂的学习流程,这又会导致内存和计算资源需求增长。举个例子,近端策略优化(PPO,这是 RLHF 常用的一种算法)需要在训练过程中维持四个模型。由此,当语言模型的参数规模超过 700 亿时,为了训练和协调多个模型,所需的计算资源和调度复杂性会显著增长 ——
6/6/2024 6:54:00 PM
机器之心
- 1
资讯热榜
标签云
人工智能
OpenAI
AI
AIGC
ChatGPT
AI绘画
DeepSeek
模型
机器人
数据
谷歌
大模型
Midjourney
智能
用户
开源
学习
微软
GPT
Meta
图像
AI创作
技术
Gemini
论文
马斯克
Stable Diffusion
算法
芯片
代码
蛋白质
生成式
英伟达
腾讯
神经网络
研究
Anthropic
计算
3D
开发者
Sora
AI设计
机器学习
AI for Science
GPU
AI视频
苹果
场景
华为
人形机器人
百度
预测
伟达
搜索
Claude
Transformer
深度学习
xAI
大语言模型
字节跳动
模态
训练
具身智能
驾驶
神器推荐
文本
LLaMA
Copilot
视觉
算力
应用
安全
智能体
视频生成
干货合集
亚马逊
大型语言模型
API
科技
AGI