Mistral AI新模型对标GPT-4,不开源且与微软分工,网友:忘了初心

「欧洲版 OpenAI」的「最强开源大模型」,被微软收编了。生成式 AI 领域,又有重量级产品出现。周一晚间,Mistral AI 正式颁布了「旗舰级」大模型 Mistral Large。与此前的一系列模型不同,这次 Mistral AI 颁布的版本功能更强,体量更大,直接对标 OpenAI 的 GPT-4。而新模型的出现,也伴随着公司大方向的一次转型。随着 Mistral Large 上线,Mistral AI 推出了名为 Le Chat 的聊天助手(对标 ChatGPT),任何人都可以试试效果。试用链接:htt

「欧洲版 OpenAI」的「最强开源大模型」,被微软收编了。

生成式 AI 领域,又有重量级产品出现。周一晚间,Mistral AI 正式颁布了「旗舰级」大模型 Mistral Large。与此前的一系列模型不同,这次 Mistral AI 颁布的版本功能更强,体量更大,直接对标 OpenAI 的 GPT-4。而新模型的出现,也伴随着公司大方向的一次转型。随着 Mistral Large 上线,Mistral AI 推出了名为 Le Chat 的聊天助手(对标 ChatGPT),任何人都可以试试效果。

图片

试用链接:https://chat.mistral.ai/此前,Mistral AI 提出的 Mistral-Medium 因为强大的功能、「意外」的开源而名噪一时,目前很多大模型初创企业都已不再对标 Llama 2,而是将 Mistral AI 旗下模型作为直接竞争对手。此次 Mistral Large 的出现,自然迅速吸引了众人关注。人们首先关注的是功能,尽管在参数数量上不及 GPT-4,Mistral-Large 在关键功能方面却能与 GPT-4 媲美,可以说是当前业内的前三:

图片

Mistral Large 的推理准确性优于 Claude 2、Gemini 1.0 Pro、GPT-3.5,支持 32k token 的上下文窗口,支持精确指令,自带函数调用能力。人们也发现 Mistral Large 的推理速度超过了 GPT-4 和 Gemini Pro。然而优点到此为止。模型除了增加体量,也需要有相应的数据。在模型颁布后,人们发现它生成的文本有一种 ChatGPT 的既视感。

图片

如果说为了能赶上业内最先进的 GPT-4,使用 AI 生成的内容进行训练或许并不是什么大问题。但 Mistral Large 的出现也给 AI 社区的人们带来了危机感:它并不是一个开源大模型。

图片

这次颁布的大模型有跑分,有 API 和应用,就是不像往常一样有 GitHub 或是下载链接。有网友发现,新模型颁布后,Mistral AI 官网还悄悄把所有有关开源社区义务的内容全部撤掉了:

图片

难道以开源起家的 Mistral AI,成立才不足一年,这就要转向了吗?Mistral Large 目前已经能在 Mistral AI 自有平台 La Plateforme 和微软 Azure 上使用。除了 Mistral Large 之外,Mistral AI 还颁布了新模型 Mistral Small,针对延迟和成本进行了优化。Mistral Small 的功能优于 Mixtral 8x7B,并且推理延迟得到了降低,供应了一种开放权重模型和旗舰模型之间的中间方案。但模型的定价也引发了一些质疑。比如 Mistral Small 的低延迟相比于 Mixtral 8x7B 的提升微乎其微,但输入贵了 2.8 倍,输出贵了 8.5 倍:

图片

如果以商业大模型的标准来看待,Mistral Large 的定价和 GPT-4 相比并不具备优势,这又该如何吸引客户呢?

图片

这位业内人士表示:「如果它的价格是 GPT-4 Turbo 的一半,我会更理解。」

图片

新的 Mistral AI「大杯」模型,表现如何?在官方博客中,Mistral AI 详细介绍了 Mistral Large 的功能和优势:Mistral Large 在多个常用基准测试中取得了优异的成绩,使其成为世界上排名第二的可通过 API 普遍使用的模型(仅次于 GPT-4):

图片

   GPT-4、Mistral Large(预训练)、Claude 2、Gemini Pro 1.0、GPT 3.5 和 LLaMA 2 70B 在 MMLU 上的比较(测量大规模多任务言语理解)。Mistral Large 的优势如下:Mistral Large 的母语是流利的英语、法语、西班牙语、德语和意大利语,对语法和文化背景有细致入微的理解;Mistral Large 的 32K Token 上下文窗口允许从大型文档中精确调用信息;其精确的指令跟随能力使开发人员能够设计自己的审核策略 ——Mistral AI 以此来设置 le Chat 的系统级审核;Mistral Large 本身就能够进行函数调用。这与在 la Plateforme 上实施的受限输出模式一起,实现了大规模应用程序开发和技术堆栈现代化。关于基准测试结果对比,可以参考以下:推理和知识Mistral Large 展现出了强大的推理能力。下图报告了预训练模型在标准基准上的功能:

图片

与多个领先 LLM 模型在广泛常识、推理和知识基准上的表现对比,基准包括 MMLU(测量理解中的大规模多任务言语)、HellaSwag(10-shot)、Wino Grande(5-shot)、Arc Challenge(5-shot)、Arc Challenge(25-shot)、TriviaQA(5-shot)和 TruthfulQA。多言语能力Mistral Large 具有原生的多言语能力。它在法语、德语、西班牙语和意大利语的 HellaSwag、Arc Challenge 和 MMLU 基准测试中明显优于 LLaMA 2 70B。

图片

                 Mistral Large、Mixtral 8x7B 和 LLaMA 2 70B 在 HellaSwag、Arc Challenge 和 MMLU 上法语、德语、西班牙语和意大利语的比较。数学和编码Mistral Large 在编码和数学任务中表现出顶尖的功能。下表报告了一系列流行基准的功能,以评估一些顶级 LLM 模型的编码和数学功能。

图片

领先 LLM 模型在流行编码和数学基准上的功能:HumanEval pass@1、MBPP pass@1、Math maj@4、GSM8K maj@8(8-shot)和 GSM8K maj@1(5-shot)。与微软分工,行 OpenAI 故事在颁布 Mistral Large 等模型的同时,Mistral AI 还宣布了一个消息:将与微软分工,在 Azure 上供应自己的模型。此次分工使 Mistral AI 成为第二家在微软 Azure 云计算平台上供应商业言语模型的公司。这有助于 Mistral AI 将自己的模型推向市场,也让 Mistral AI 有机会使用 Azure 的尖端 AI 基础设施,以加速其下一代大型言语模型的开发和部署。

图片

这家公司表示,「在 Mistral AI,我们的使命是让前沿人工智能无处不在。这就是我们今天宣布将自己的开放和商业模型引入 Azure 的原因。微软对我们模型的信任让我们前进了一步!」这项为期多年的协议标志着微软正在其最大的赌注 OpenAI 之外,努力供应各种人工智能模型,为其 Azure 云服务吸引更多客户。去年 11 月,OpenAI 经历了 CEO Altman 被解雇(后又重返)的风波。而作为最大的股东,微软在消息公布前 5 到 10 分钟才从 OpenAI 那里得到消息。在这次动荡后,微软设法在控制 OpenAI 的非营利性董事会中获得了一个无投票权的观察员席位。这让他们对 OpenAI 的内部运作有了更多了解,但在重大决策上,微软依然没有投票权。Mistral AI 对路透社表示,作为交易的一部分,微软将持有该公司少数股权,但未透露细节。微软证实了对 Mistral AI 的投资,但表示不持有该公司的股权。这家科技巨头因向 OpenAI 供应巨额资金而受到欧洲和美国监管机构的审查。根据公告,微软与 Mistral AI 的分工主要集中在三个核心领域:超算基础设施:微软将通过 Azure AI 超级计算基础设施支持 Mistral AI ,为 Mistral AI 旗舰模型的 AI 训练和推理工作负载供应一流的功能和规模;市场推广:微软和 Mistral AI 将通过 Azure AI Studio 和 Azure 机器学习模型目录中的模型即服务(MaaS)向客户供应 Mistral AI 的高级模型。除 OpenAI 模型外,模型目录还供应了多种开源和商业模型。人工智能研发:微软和 Mistral AI 将探索为特定客户训练特定目的模型的分工。除了微软,MistralAI 还一直在与亚马逊和谷歌分工,分销自己的模型。一位发言人表示,该公司计划在未来几个月内将 Mistral Large 应用于其他云平台。Mistral AI 成立于 2023 年 5 月,由来自 Meta Platforms 和 Alphabet 的几位前研究人员 ——Arthur Mensch(现任 CEO)、Guillaume Lample 和 Timothee Lacroix 共同创立。成立不到四周,Mistral AI 就获得了 1.13 亿美元 的种子轮融资,估值约为 2.6 亿美元。成立半年后,他们在 A 轮融资中筹集了 4.15 亿美元,估值飙升至 20 亿美元,涨了七倍多。而此时,他们仅有 22 名员工。

图片

总体来说,Mistral AI 的模型现在有以下几种获取方式:Mistral AI 自己的 API:该接入点安全地托管在 Mistral AI 位于欧洲的基础设施上,使开发人员能够在各种型号的模型上创建应用和服务。Azure:Mistral Large 可通过 Azure AI Studio 和 Azure Machine Learning 获取,其用户体验与 Mistral AI 的 API 一致。安全部署:Mistral AI 的部分模型可以部署在用户自己的环境中,用于对安全性最敏感的用例。感兴趣的读者可以前去尝试。参考内容:https://mistral.ai/news/mistral-large/https://azure.microsoft.com/en-us/blog/microsoft-and-mistral-ai-announce-new-partnership-to-accelerate-ai-innovation-and-introduce-mistral-large-first-on-azure/https://techcrunch.com/2024/02/26/mistral-ai-releases-new-model-to-rival-gpt-4-and-its-own-chat-assistant/https://www.reuters.com/technology/microsoft-partners-with-openais-french-rival-mistral-2024-02-26/https://azure.microsoft.com/en-us/blog/microsoft-and-mistral-ai-announce-new-partnership-to-accelerate-ai-innovation-and-introduce-mistral-large-first-on-azure/

原创文章,作者:机器之心,如若转载,请注明出处:https://www.iaiol.com/news/mistralai-xin-mo-xing-dui-biao-gpt4-bu-kai-yuan-qie-yu-wei/

(0)
上一篇 2024年 2月 19日 下午3:03
下一篇 2024年 3月 1日 上午11:27

相关推荐

  • 技能破局?畅谈元宇宙大浪下的AI技能流实践机遇与挑拨

    「机器之心2021-2022年度AI趋势大咖说」聚焦「驱动将来的AI技能」与「重塑产业的AI科技」,推出线上分享,共邀请近40位AI领域知名学者、产业专家及企业高管通过主题分享及多人圆桌等形式,与行业精英、读者、观众共同回顾 2021年中的重要技能和学术热点,盘点AI产业的年度研究目标以及重大科技突破,展望2022年度AI技能开展目标、AI技能与产业科技融合趋势。

    2022年 7月 26日
  • 机械之心升级「SOTA!模型」资本站,万余模型覆盖千余AI任务

    机械之心于2022年第一季度推出新版「SOTA 模型」资本站。作为专注办事中国开发者的第三方平台,该站点在对每日学界、业界最新的SOTA工作进行追踪的同时,汇总了原作团队、社区用户所放出的模型文件、实现代码、数据集等开发资本,协助用户快速上手测验考试新技能。当前新版 「SOTA!模型」已收录超过15000个模型资本,覆盖超过1000个AI任务。用户可通过「检索模型」功能鉴于模型资本所适配的硬件类型、计算平台、框架及模型规模等维度高效查询。作为专业的人工智能信息平台,机械之心于2019年9月发布了首版「SOTA 模型」项

    2022年 8月 5日
  • 降低门槛,全平台运用,昇腾还会手把手地教你如何用AI

    机械之心报道作者:泽南如何才能做到 AI 运用一次开发,全场景布署?昇腾给出了答案。如今的大多数 AI 运用程序都必要跑在多种类型的处理器上,覆盖数十个版本的操作系统,运行在从端侧到云计算集群的各种设备上。这样复杂的环境,对软件的适应性和模型的可裁剪、可伸缩性提出了极高要求。AI 开源框架也在顺应这股潮流,昇腾发布的 CANN、MindSpore、MindX 等对象,可以让开发者实现「统一端边云,全端自动布署」,开启了机械进修开发的新时代,一直被人们寄予厚望。昇腾的 AI 全栈软件平台。其中,基础架构作为连接硬件与

    2021年 3月 19日
  • 线上分享 | Transformers库维护者之一、UCSD博士生分享库背后的故事

    自 2017 年提出以来,Transformer 已经成为占据主导地位的自然语言处理(NLP)架构,在自然语言理解和自然语言生成等任务上表现出的性能超过了卷积和循环神经网络等其他神经模型。之后,Transformer 的训练数据和模型规模也不断扩展,从而促进了高效并行训练以及长期序列特征捕获。

    2020年 12月 11日
  • Hologres揭秘:深度解析高效率分布式查问引擎

    Hologres(中文名交互式分析)是阿里云自研的一站式及时数仓,这个云原生体系融合了及时服务和分析大数据的场景,全面兼容PostgreSQL协议并与大数据生态无缝打通,能用同一套数据架构同时支持及时写入及时查问以及及时离线联邦分析。它的出现简化了业务的架构,与此同时为业务提供及时决策的能力,让大数据发挥出更大的商业价值。Hologres作为HSAP服务分析一体化的落地最佳实践,其查问引擎是一个完全自研的施行引擎,它的核心设计目标是支持所有类型的分布式分析和服务查问,并做到极致查问机能。为了做到这一点,我们借鉴了各

    2021年 8月 11日
  • AI for Science:人工智能改变化学领域,呆板进修范式加速化学物质发觉

    随着人工智能技术兴起,在化学领域,传统的鉴于尝试和物理模型的方式逐渐与鉴于数据的呆板进修范式融合。越来越多的用于估计机处理数据表现被开发出来,并不断适应着以天生式为主的统计模型。

    2022年 3月 6日
  • 亚马逊资深首席科学家李沐:工作这五年

    自CMU机器学习博士毕业至今,亚马逊资深首席科学家李沐的业界之路已经走过了五年空儿。期间,李沐博士对技巧、产物、管理、升职加薪等工作中的方方面面都有了更深的感悟。「专一于最有代价的工作」是他对过往五年工作历程的最好总结。

    2021年 5月 25日
  • AI「读图领会」首超人类!阿里达摩院刷新全球VQA纪录

    历经六年,AI 在这一手艺上得分首超人类。

    2021年 8月 12日
  • 港中文岳翔宇老师招收人工智能全奖博士生、博士后、钻研助理、练习生

    ​新的一期博士招生正式启动!本期我们将为大家介绍香港中文大学岳翔宇老师招收人工智能全奖博士生、博士后、钻研助理、练习生的相关信息。

    2022年 9月 28日

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注