帝江 - 7B
华为诺亚频域LLM「帝江」:仅需1/50训练成本,7B模型媲美LLaMA,推理加速5倍
“又西三百五十里曰天山,多金玉,有青雄黄,英水出焉,而西南流注于汤谷。有神鸟,其状如黄囊,赤如丹火,六足四翼,浑敦无面目,是识歌舞,实惟帝江也。”——《山海经》基于 Transformer 架构的大语言模型在 NLP 领域取得了令人惊艳的效果,然而,Transformer 中自注意力带来的二次复杂度使得大模型的推理成本和内存占用十分巨大,特别是在长序列的场景中。此前,研究者们提出了线性 Transformer、Mamba、RetNet 等。这些方案可以大幅降低 Transformer 计算成本,并且取得媲美原有模型
4/3/2024 2:39:00 PM
机器之心
- 1
资讯热榜
标签云
人工智能
OpenAI
AI
AIGC
ChatGPT
AI绘画
DeepSeek
模型
数据
机器人
谷歌
大模型
Midjourney
智能
用户
开源
学习
GPT
微软
Meta
图像
AI创作
技术
论文
Gemini
马斯克
Stable Diffusion
算法
蛋白质
芯片
代码
生成式
英伟达
腾讯
神经网络
研究
Anthropic
计算
3D
Sora
机器学习
AI for Science
AI设计
开发者
GPU
AI视频
华为
场景
人形机器人
预测
百度
苹果
伟达
Transformer
深度学习
Claude
xAI
模态
字节跳动
大语言模型
搜索
驾驶
具身智能
神器推荐
文本
LLaMA
Copilot
训练
算力
视觉
安全
视频生成
干货合集
应用
科技
智能体
大型语言模型
亚马逊
AGI
DeepMind