MultiPL-MoE
中移动九天团队MultiPL-MoE:全新Hybrid-MoE架构用于增强通用大模型低资源代码能力
大语言模型(LLM)虽已展现出卓越的代码生成潜力,却依然面临着一道艰巨的挑战:如何在有限的计算资源约束下,同步提升对多种编程语言的理解与生成能力,同时不损害其在主流语言上的性能? 为此,中国移动九天团队创新性地提出了 Hybrid MoE 架构 —— MultiPL-MoE,该方案的核心在于耦合两个层次的专家选择机制进行优化:在 Token 层级,采用配备共享专家及新颖门控权重归一化方法的稀疏 MoE,以实现与段落层级专家的高效协同;在 Segment 层级,则创新性地引入滑动窗口划分与专家选择路由策略,使模型能够精准捕捉不同编程语言的语法结构与深层上下文模式。 目前,该项研究已被 EMNLP 2025 接收。
10/30/2025 10:23:00 AM
机器之心
- 1
资讯热榜
最强OCR竟然不是DeepSeek、Paddle!HuggingFace新作:六大顶尖开源OCR模型横评!继DS后又杀出匹黑马!
如何把ChatGPT嵌入到自己的应用中?
OpenAI 内部警示:ChatGPT Atlas 面临“即时注入”安全威胁
揭秘大模型的魔法:从零实现一个简化版的GPT 模型
直击 Mac 桌面!OpenAI 收购 Sky 团队,ChatGPT 即将深度嵌入 macOS 工作流
基于JoyAgent的二开工程实践(信贷尽调报告生成)
微软AI主管苏莱曼:微软不会开发情色类AI,与OpenAI划清界限
ChatGPT 涉嫌“诱导”美国 16 岁少年自杀,家属指控 OpenAI 事发前放松安全措施
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
机器人
大模型
数据
Midjourney
开源
Meta
智能
微软
用户
AI新词
GPT
学习
技术
智能体
马斯克
Gemini
图像
Anthropic
英伟达
AI创作
训练
LLM
论文
代码
算法
AI for Science
芯片
Agent
腾讯
Stable Diffusion
苹果
Claude
蛋白质
开发者
生成式
神经网络
xAI
机器学习
3D
人形机器人
RAG
研究
AI视频
生成
大语言模型
具身智能
Sora
工具
GPU
百度
华为
计算
字节跳动
AI设计
AGI
搜索
大型语言模型
视频生成
场景
深度学习
架构
DeepMind
生成式AI
编程
视觉
预测
Transformer
AI模型
伟达
亚马逊
特斯拉