AI在线 AI在线

华为开源盘古7B稠密和72B混合专家模型

6月30日,华为于正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE720亿参数的混合专家模型,以及基于升腾的模型推理技术。 此次开源举措,是华为践行升腾生态战略的关键一步,旨在推动大模型技术的研究与创新发展,加速人工智能在各行业的应用并创造价值。 目前,盘古Pro MoE72B模型权重、基础推理代码,以及基于升腾的超大规模MoE模型推理代码,均已正式上线开源平台。

6月30日,华为于正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE720亿参数的混合专家模型,以及基于升腾的模型推理技术。

此次开源举措,是华为践行升腾生态战略的关键一步,旨在推动大模型技术的研究与创新发展,加速人工智能在各行业的应用并创造价值。

目前,盘古Pro MoE72B模型权重、基础推理代码,以及基于升腾的超大规模MoE模型推理代码,均已正式上线开源平台。盘古7B相关模型权重与推理代码也将在近期上线。

华为诚邀全球开发者、企业伙伴及研究人员下载使用相关资源,并反馈使用意见,共同完善相关技术。有需求者可访问https://gitcode.com/ascend-tribe进行了解。

相关资讯

Llama 2 的入门与实战,机器之心邀请了 4 位技术大牛手把手教你

机器之能报道编辑:Sia「Llama 2 大模型算法与应用实践」-机器之心 AI 技术论坛将于 8 月 26 日在北京举办。如果要问「2023 年最火的动物是什么?」AI 圈外的人可能会回答「熊猫」,并给你列出一长串熊猫的名字。而 AI  圈内的人八成会回答「羊驼」。而且,他们也能给你列出一长串「羊驼」的名字:llama、vicuna、alpaca…… 得益于 Meta Llama 模型的开源,AI 社区的研究者对生物学羊驼属的英文单词已经如数家珍,每个单词都对应着一个(或一组)基于 Llama 的微调模型。这些模
7/30/2023 11:42:00 PM
机器之能

Meta 首席科学家杨立昆痛批硅谷“常见病”:一种错误的优越感

“科技的进步往往是通过更多有才华的人参与,并且相互分享他们的创新成果,才能加速的。”
2/1/2025 11:33:14 PM
清源

中国联通发布元景思维链大模型:性能超越GPT-4o 比肩OpenAI o1

今日,中国联通宣布,其旗下联通数据智能有限公司正式发布了元景思维链大模型。 这一创新成果已在GitHub、魔搭、始智等多个社区全面开源,标志着中国联通在人工智能领域迈出了重要一步。 元景思维链大模型作为中国联通推出的业界首款央企开源通用思维链大模型,展现了强大的慢思考能力和多学科、多场景的通用推理能力。
1/24/2025 1:59:00 PM
AI在线
  • 1