AI在线 AI在线

面壁智能开源“小钢炮”MiniCPM-S AI 模型,主打高效低能耗

今天的 2024 世界人工智能大会(WAIC 2024)期间,面壁智能联合创始人、首席科学家刘知远宣布,开源主打高效低能耗的新一代“面壁小钢炮”MiniCPM-S 模型,同时发布助力开发者一键打造大模型 SuperApp 的全栈工具集 MobileCPM。据介绍,面壁 2024 年发布了具备 GPT-3 同等性能但参数仅为 24 亿的 MiniCPM-2.4B,知识密度提高了约 86 倍。面壁方面更称,这“并不是极限”—— 其持续优化 Scaling Law 使模型知识密度不断提升,可不断训练出计算更加高效、表现更

今天的 2024 世界人工智能大会(WAIC 2024)期间,面壁智能联合创始人、首席科学家刘知远宣布,开源主打高效低能耗的新一代“面壁小钢炮”MiniCPM-S 模型,同时发布助力开发者一键打造大模型 SuperApp 的全栈工具集 MobileCPM

据介绍,面壁 2024 年发布了具备 GPT-3 同等性能但参数仅为 24 亿的 MiniCPM-2.4B,知识密度提高了约 86 倍。面壁方面更称,这“并不是极限”—— 其持续优化 Scaling Law 使模型知识密度不断提升,可不断训练出计算更加高效、表现更强(参数规模降低,数值位宽降低,结构更加高效)的基础大模型。

面壁智能开源“小钢炮”MiniCPM-S AI 模型,主打高效低能耗

而此次开源的 MiniCPM-S 采用“稀疏激活”在同等参数下减少大模型的推理能耗,稀疏度越高,每个词元(token)激活的神经元越少,大模型的推理成本和能耗就越少

MiniCPM-S 1.2B 采用了高度稀疏架构,通过将激活函数替换为 ReLU 及通过带渐进约束的稀疏感知训练,巧妙地解决了此前主流大模型在稀疏激活上面临的困境。

面壁智能开源“小钢炮”MiniCPM-S AI 模型,主打高效低能耗

官方还表示,和同规模的稠密模型 MiniCPM 1.2B 相比,MiniCPM-S 1.2 具备如下特征:

Sparse-高稀疏低能耗:在 FFN 层实现了高达 87.89% 平均稀疏度,推理算力下降 84%;

Speed-神仙推理:更少计算,迅疾响应。纯 CPU 环境下,结合 Powerinfer 推理框架,推理解码速度提升约 2.8 倍;

Strong-无损强大性能:更少计算量,无损下游任务性能。

面壁智能开源“小钢炮”MiniCPM-S AI 模型,主打高效低能耗

MiniCPM-S 1.2B 号称实现知识密度的“空前提升”—— 达到同规模稠密模型 MiniCPM 1.2B 的 2.57 倍,Mistral-7B 的 12.1 倍。

IT之家附开源链接:

论文地址:https://arxiv.org/pdf/2402.13516.pdf

模型地址:https://huggingface.co/openbmb/MiniCPM-S-1B-llama-format

PowerInfer可直接运行格式:https://huggingface.co/openbmb/MiniCPM-S-1B-sft-gguf

此外,面壁还开源了号称业内首个端侧大模型工具集 MobileCPM,开发者可以一键集成大模型到 App,且实现“开箱即用”。其包含开源端侧大模型、SDK 开发套件及翻译、摘要等丰富的 intent,可一站式灵活定制满足不同应用场景需求的大模型 App。其为开发者提供了基础模式、精装模式、全包配件模式,默认集成面壁新一代高效稀疏架构模型 MiniCPM-S 1.2B。

面壁智能开源“小钢炮”MiniCPM-S AI 模型,主打高效低能耗

面壁智能开源“小钢炮”MiniCPM-S AI 模型,主打高效低能耗

面壁智能开源“小钢炮”MiniCPM-S AI 模型,主打高效低能耗

MobileCPM 已经支持 iOS 系统,安卓版本也即将上线。附:开源地址、TestFlight 外测地址。

相关资讯

2B参数性能超Mistral-7B:面壁智能多模态端侧模型开源

2B参数性能超Mistral-7B:面壁智能多模态端侧模型开源

千元机也能本地运行。在大模型不断向着大体量方向前进的同时,最近一段时间,人们在优化和部署方面也取得了成果。2 月 1 日,面壁智能联合清华 NLP 实验室在北京正式发布了旗舰端侧大模型「面壁 MiniCPM」。新一代大模型被称为「性能小钢炮」,直接拥抱终端部署,同时也具有同量级最强的多模态能力。面壁智能本次提出的 MiniCPM 2B 参数量仅有 20 亿,使用 1T token 的精选数据训练。这是一个参数量上与 2018 年 BERT 同级的模型,面壁智能在其之上实现了极致的性能优化与成本控制,让该模型可以「越
2/2/2024 5:13:00 PM 机器之心
Creator 面对面 | 北大河图在稀疏大模型训练架构上的几点探索

Creator 面对面 | 北大河图在稀疏大模型训练架构上的几点探索

河图是北京大学数据与智能实验室自研的一款分布式深度学习框架,兼顾创新性和可用性,这也是国内首个由高校自主研发的分布式深度学习系统。底层的算子实现到上层的模型设计完全是由河图团队自主实现。
7/13/2022 6:41:00 PM SOTA模型
稀疏化 芯力量|墨芯参展首日S4计算卡性能表现亮眼

稀疏化 芯力量|墨芯参展首日S4计算卡性能表现亮眼

2022年7月15日,墨芯人工智能参展厦门半导体峰会,首席科学家严恩勖发表演讲,展示墨芯如何用稀疏化推动AI计算前沿和最新的产业进展。16日墨芯获评“最具投资价值奖”。集微峰会被誉为“半导体业风向标”,设特色“芯力量”展区和EDA展区。墨芯位于“芯力量”展区核心位置——76号展台。   墨芯作为稀疏化计算引领者,致力于提供云端和终端AI计算平台和服务,打造软硬协同的新一代智能计算平台。团队携首颗芯片Antoum®和人工智能推理计算卡S4参展。墨芯人工智能S4计算卡基于墨芯首颗芯片Antoum®,是全球首款高达32倍
8/17/2022 6:57:00 PM 墨芯人工智能