神经架构搜索
用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高
用神经架构搜索给 LLM 瘦身,同等准确度可让 LLaMA2-7B 模型大小降 2 倍。大型语言模型(LLM)的一个主要特点是「大」,也因此其训练和部署成本都相当高,如何在保证 LLM 准确度的同时让其变小就成了非常重要且有价值的研究课题。对此,研究社区已经提出了多种多样的方法,比如剪枝、稀疏化、量化等,它们的效果也各不一样。近日,Intel Labs 发布了一项研究成果,宣称可使用神经架构搜索(NAS)高效地为 LLM 「瘦身」。他们基于 LLaMA2-7B 模型的实验表明,该技术不仅能降低模型大小,有时甚至还能
6/11/2024 2:40:00 PM
机器之心
- 1
资讯热榜
标签云
人工智能
AI
OpenAI
AIGC
ChatGPT
DeepSeek
AI绘画
模型
数据
机器人
谷歌
大模型
Midjourney
智能
用户
开源
学习
微软
GPT
Meta
图像
AI创作
技术
Gemini
论文
马斯克
Stable Diffusion
算法
芯片
代码
生成式
蛋白质
英伟达
腾讯
神经网络
研究
Anthropic
开发者
3D
计算
Sora
机器学习
AI设计
AI for Science
GPU
AI视频
苹果
场景
华为
人形机器人
百度
预测
搜索
Claude
伟达
深度学习
Transformer
xAI
训练
大语言模型
字节跳动
模态
具身智能
文本
驾驶
生成
神器推荐
LLaMA
Copilot
视觉
智能体
算力
安全
应用
视频生成
干货合集
亚马逊
大型语言模型
API
科技