MH-MoE
微软让MoE长出多个头,大幅提升专家激活率
MH-MoE 能优化几乎所有专家,实现起来非常简单。混合专家(MoE)是个好方法,支持着现在一些非常优秀的大模型,比如谷歌家的 Gemini 1.5 以及备受关注的 Mixtral 8x7B。稀疏混合专家(SMoE)可在不显著增加训练和推理成本的前提下提升模型的能力。比如 Mixtral 8×7B 就是一个 SMoE 模型,其包含 8 个专家(共 7B 参数),而其表现却可以超过或比肩 LLaMA-2 70B 和 GPT-3.5。但是,它也有两个问题。一是专家激活率低 —— 也就是搞不好会出现下图这种情况:具体来说
5/14/2024 7:09:00 AM
机器之心
- 1
资讯热榜
标签云
人工智能
OpenAI
AI
AIGC
ChatGPT
DeepSeek
AI绘画
模型
数据
机器人
谷歌
大模型
Midjourney
智能
用户
开源
学习
微软
GPT
Meta
图像
AI创作
技术
论文
Gemini
马斯克
Stable Diffusion
算法
蛋白质
芯片
代码
生成式
英伟达
腾讯
神经网络
研究
Anthropic
计算
3D
Sora
机器学习
AI for Science
AI设计
开发者
GPU
AI视频
场景
华为
苹果
人形机器人
预测
百度
伟达
Transformer
Claude
深度学习
xAI
搜索
大语言模型
模态
字节跳动
驾驶
具身智能
神器推荐
文本
LLaMA
Copilot
训练
视觉
算力
安全
应用
视频生成
干货合集
智能体
大型语言模型
亚马逊
科技
AGI
DeepMind