AI在线 AI在线

一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等

开源绝对是AI如今发展迅猛的助推剂,而其中的一股重要力量就是来自MetaMeta在人工智能开源界可谓是硕果颇丰,从大模型LLama到图像分割模型Segment Anything,覆盖了各种模态、各种场景,甚至在AI以外的学科,如医学等科学研究进展也都从Meta的开源模型中受益。 最近,Meta发布了一系列新的开源工作,还对已有的开源工作进行了升级迭代,包括 SAM 2.1、句子表征的细化等,开源社区将再迎来一场狂欢! Segment Anything Model 2.1SAM2模型开源以来,总下载量已经超过70万次,在线可用的演示程序也已帮助用户在图像和视频数据中分割了数十万个物体,并且在跨学科(包括医学图像、气象学等研究)中产生了巨大的影响。

开源绝对是AI如今发展迅猛的助推剂,而其中的一股重要力量就是来自Meta

Meta在人工智能开源界可谓是硕果颇丰,从大模型LLama到图像分割模型Segment Anything,覆盖了各种模态、各种场景,甚至在AI以外的学科,如医学等科学研究进展也都从Meta的开源模型中受益。

图片

最近,Meta发布了一系列新的开源工作,还对已有的开源工作进行了升级迭代,包括 SAM 2.1、句子表征的细化等,开源社区将再迎来一场狂欢!

Segment Anything Model 2.1

SAM2模型开源以来,总下载量已经超过70万次,在线可用的演示程序也已帮助用户在图像和视频数据中分割了数十万个物体,并且在跨学科(包括医学图像、气象学等研究)中产生了巨大的影响。

本次Meta更新了Meta Segment Anything Model 2.1 (SAM 2.1)权重,性能更强。

图片

开源链接:https://github.com/facebookresearch/sam2

相比SAM2,研究人员引入了额外的数据增强技术来模拟视觉相似物体和小物体,并且通过在较长的帧序列上训练模型并对「空间」和「物体指向记忆」(object pointer memory)的位置编码进行一些调整,提高了SAM 2的遮挡处理能力(occlusion handling capability)。

一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等

研究人员还开源了SAM 2开发者套件,基于SAM 2模型构建下游应用会变得更容易,用户现在也可以使用自己的数据来微调SAM 2的训练代码;页面演示的前端和后端代码也开源了。

Spirit LM:语音+文本的语言模型

大型语言模型经常被用来构建文本到语音的流程:首先通过自动语音识别(ASR)技术将语音转写成文本,然后由大型语言模型(LLM)合成文本,最终再通过文本到语音(TTS)技术将文本转换为语音。

但这个过程可能会影响语音的表达性,使得模型在理解、生成带表达的语音上有所欠缺。

为了解决这个限制,研究人员构建了Spirit LM,也是首个Meta开源的多模态语言模型,能够自由地混合文本和语音;通过在语音和文本数据集上使用逐词交错的方法进行训练,实现了跨模态生成。

图片

论文链接:https://arxiv.org/abs/2402.05755

研究人员开发了两个版本的Spirit LM,以展示文本模型的生成语义能力和语音模型的表达能力:基础版(Base)使用音素标记来模拟语音,而表达版(Expressive)使用音调和风格标记来捕捉关于语调的信息,比如是兴奋、愤怒还是惊讶,然后生成反映这种语调的语音。

一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等

Spirit LM能够生成听起来更自然的语音,并且有能力跨模态学习新任务,比如自动语音识别、文本到语音和语音分类。

Layer Skip:加速生成时间

大型语言模型已经在各个行业和用例中得到了广泛应用,但需要非常高的计算速度和内存量,运行成本非常高。

为了应对这些挑战,Meta引入一种端到端的解决方案层跳过(Layer Skip),可以在不依赖专用硬件或软件的情况下,加速新数据上的LLM生成时间:通过执行模型的部分层,并利用后续层进行验证和修正,来加速LLMs的运行。

图片

论文链接:https://arxiv.org/pdf/2404.16710

代码链接:https://github.com/facebookresearch/LayerSkip

研究人员开源了层跳过的推理代码和微调检查点,包括Llama 3、Llama 2和Code Llama,这些模型已经通过层跳过训练方法进行了优化,显著提高了早期层退出的准确性,层跳过的推理实现可以提升1.7倍模型性能。

层跳过检查点的一个主要特点是在早期层退出和跳过中间层时的鲁棒性,以及各层之间激活的一致性,这种特性为优化和可解释性方面的创新研究铺平了道路。

Salsa:验证后量子密码标准的安全性

在保护数据的安全领域上,密码学研究必须领先于攻击手段。

Meta此次开源的方法Salsa,能够攻击和破解NIST标准中的稀疏秘密(sparse secrets)Krystals Kyber,使研究人员能够对基于人工智能的攻击进行基准测试,并将其与现在以及将来的新攻击手段进行对比。

图片

论文链接:https://arxiv.org/pdf/2408.00882v1

代码链接:https://github.com/facebookresearch/LWE-benchmarking

国家标准技术研究所(NIST)采用的行业标准,「基于格(lattice)的密码学」建立在「带误差的学习」(LWE)的难题之上。

一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等

这种难题假设,如果只提供与随机向量有噪声的内积,那么学习一个秘密向量是非常困难的,此前已经有研究人员展示了针对这种方法的机器学习攻击。 

Meta Lingua:通过高效的模型训练加速研究

Meta Lingua 是一个轻量级且自包含的代码库,可以大规模训练语言模型。

该项目提供了一个研究友好的环境,使得将概念转化为实际实验变得更加容易,并强调简单性和可重用性以加速研究,平台高效且可定制,研究人员能够以最小的设置和技术负担来快速测试想法。

图片

代码链接:https://github.com/facebookresearch/lingua

为了实现这一点,研究人员做了几个设计选择,确保代码既模块化又自包含,同时保持高效,其中利用了PyTorch中的多个特性,在保持灵活性和性能的同时,使代码更易于安装和维护。

一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等

研究人员可以更专注于工作本身,让Lingua平台来负责高效的模型训练和可复现的研究。

Meta Open Materials 2024:促进无机材料发现

传统上,发现推动技术进步的新材料可能需要数十年的时间,但人工智能辅助材料发现可能会彻底改变这一领域,并大大加快发现流程。

Meta最近开源了Open Materials 2024数据集和模型,在Matbench-Discovery排行榜上名列前茅,有望通过开放和可复现的研究进一步推动人工智能加速材料发现的突破。

图片

代码链接:https://github.com/FAIR-Chem/fairchem

模型链接:https://huggingface.co/fairchem/OMAT24

数据链接:https://huggingface.co/datasets/fairchem/OMAT24

目前最佳的材料发现模型是基于开源人工智能社区的基础研究构建的封闭模型,而Open Materials 2024提供了基于1亿个训练样本的开源模型和数据,也是最大的开放数据集之一,为材料发现和人工智能研究社区提供了一个有竞争力的开源选择。

Meta Open Materials 2024现在公开可用,并将赋予人工智能和材料科学研究社区加速无机材料发现的能力,并缩小领域内开放和专有模型之间的差距。

Mexma:改进句子表征的token级目标

目前,预训练的跨语言句子编码器通常只使用句子级别的目标进行训练。这种做法可能会导致信息的丢失,特别是对于token级别的信息,这最终会降低句子表示的质量。

Mexma是一个预训练的跨语言句子编码器,通过在训练过程中结合token和句子级别的目标,其性能也超越了以往的方法。

图片

论文链接:https://arxiv.org/pdf/2409.12737

以前训练跨语言句子编码器的方法仅通过句子表示来更新编码器,通过同时使用token级别的目标来更好地更新编码器,从而在这方面进行了改进。

图片

研究人员希望研究社区能够从使用Mexma作为句子编码器中受益,目前支持80种语言,所有语言的句子表示都经过对齐,在挖掘包含两种文本的语言数据时,Mexma能够更准确地识别和比较不同语言中的信息,并且在其他下游任务,如句子分类上表现良好。

Self-Taught Evaluator:生成奖励模型

研究人员推出了自学评估器(Self-Taught Evaluator),可以用于生成合成偏好数据以训练奖励模型,而无需依赖人工标注。

这种方法生成对比的模型输出,并训练一个作为评委的大型语言模型(LLM-as-a-Judge)以生成用于评估和最终判断的推理痕迹,并通过迭代自我改进方案进行优化。

图片

论文链接:https://arxiv.org/abs/2408.02666

研究人员发布了一个经过直接偏好优化训练的模型,该生成式奖励模型在RewardBench上表现强大,但在训练数据创建中没有使用任何人工标注。

其性能表现超越了更大的模型或使用人工标注标签的模型,例如GPT-4、Llama-3.1-405B-Instruct和Gemini-Pro,也可作为AlpacaEval排行榜上的评估器之一,在人类一致率方面名列前茅,同时比默认的GPT-4评估器快约7到10倍。

自从发布以来,人工智能社区已经接受了这种合成数据方法,并用来训练表现优异的奖励模型。

相关资讯

27亿参数的「野生版」GPT-3开源,GitHub项目2.9K Star量

OpenAI 著名的语言模型 GPT-3 可以懂数学、翻译文字,还能写论文拿到及格成绩,这样的 AI 什么时候才能开源呢?现在已有了一个差不多的项目。
3/26/2021 3:50:00 PM
机器之心

首个中文版ChatGPT来了:大模型的中国元“Yuan”

ChatGPT 到底有多火?它已成为史上最快传播的应用,发布两个月后就有了 1 亿用户。实现同样的用户量,TikTok 需要近九个月,而 Instagram 用了两年多。
2/7/2023 9:19:00 AM
机器之心

还在为玩不了ChatGPT苦恼?这十几个开源平替也能体验智能对话

本文将为大家盘点一下 ChatGPT 的开源平替项目。
3/19/2023 1:30:00 PM
机器之心

谷歌内部文件泄漏:谷歌、OpenAI都没有护城河,大模型门槛正被开源踏破

「我们没有护城河,OpenAI 也没有。」在最近泄露的一份文件中,一位谷歌内部的研究人员表达了这样的观点。
5/5/2023 2:47:00 PM
机器之心

大模型迎来「开源季」,盘点过去一个月那些开源的LLM和数据集

前段时间,谷歌泄露的内部文件表达了这样一个观点,虽然表面看起来 OpenAI 和谷歌在 AI 大模型上你追我赶,但真正的赢家未必会从这两家中产生,因为有一个第三方力量正在悄然崛起。这个力量就是「开源」。
5/16/2023 2:53:00 PM
机器之心

百川智能发布开源中英文大模型,多个榜单评测成绩最佳

王小川创立的百川智能发布中英文大模型,采用开源模式,可免费商用。报道 | 机器之能2023年6月15日,被称为「中国ChatGPT梦之队」的百川智能公司,推出了70 亿参数量的中英文预训练大模型——baichuan-7B。baichuan-7B不仅在C-Eval、AGIEval和Gaokao中文权威评测榜单上,以显著优势全面超过了ChatGLM-6B等其他大模型,并且在MMLU英文权威评测榜单上,大幅领先LLaMA-7B。目前baichuan-7B大模型已在Hugging Face、Github以及Model Sc
6/15/2023 6:13:00 PM
机器之能

超越所有开源模型,击败 Claude、Bard,专门用于编程任务的大模型来了

开源 LLM 的性能越来越好了。
6/20/2023 2:34:00 PM
机器之心

第一个超越ChatGPT的开源模型来了?网友并不买账

开源模型真的超过 ChatGPT了吗?
7/3/2023 2:41:00 PM
机器之心

彻底开源,免费商用,上海AI实验室把大模型门槛打下来

大模型领域,有人探索前沿技术,有人在加速落地,也有人正在推动整个社区进步。
7/12/2023 6:44:00 PM
机器之心

iPhone、Mac上都能跑,刷屏的Llama 2究竟性能如何?

昨天凌晨,相信很多人都被 Meta 发布的 Llama 2 刷了屏。OpenAI 研究科学家 Andrej Karpathy 在推特上表示,「对于人工智能和 LLM 来说,这确实是重要的一天。这是目前能够把权重提供给所有人使用的最为强大的 LLM。」
7/20/2023 2:23:00 PM
机器之心

Llama 2 的入门与实战,机器之心邀请了 4 位技术大牛手把手教你

机器之能报道编辑:Sia「Llama 2 大模型算法与应用实践」-机器之心 AI 技术论坛将于 8 月 26 日在北京举办。如果要问「2023 年最火的动物是什么?」AI 圈外的人可能会回答「熊猫」,并给你列出一长串熊猫的名字。而 AI  圈内的人八成会回答「羊驼」。而且,他们也能给你列出一长串「羊驼」的名字:llama、vicuna、alpaca…… 得益于 Meta Llama 模型的开源,AI 社区的研究者对生物学羊驼属的英文单词已经如数家珍,每个单词都对应着一个(或一组)基于 Llama 的微调模型。这些模
7/30/2023 11:42:00 PM
机器之能

讯飞星火V3.5正式发布,基于全国产算力平台“飞星一号”训练

1月30日,科大讯飞举行星火认知大模型V3.5升级发布会。科大讯飞董事长刘庆峰、研究院院长刘聪正式发布基于首个全国产算力训练的讯飞星火V3.5。2023年10月24日,科大讯飞携手华为,宣布首个支撑万亿参数大模型训练的万卡国产算力平台“飞星一号”正式启用。启用后的90多天里,讯飞星火基于“飞星一号”,启动了对标GPT-4的更大参数规模的大模型训练,带来了1月30日这场讯飞星火V3.5升级发布。首个基于全国产算力训练的全民开放大模型讯飞星火V3.5在语言理解、文本生成、知识问答、逻辑推理、数学能力、代码能力和多模态能
1/30/2024 8:38:00 PM
机器之心

开源大模型王座再易主,1320亿参数DBRX上线,基础、微调模型都有

「太狂野了」。这是迄今为止最强大的开源大语言模型,超越了 Llama 2、Mistral 和马斯克刚刚开源的 Grok-1。本周三,大数据人工智能公司 Databricks 开源了通用大模型 DBRX,这是一款拥有 1320 亿参数的混合专家模型(MoE)。DBRX 的基础(DBRX Base)和微调(DBRX Instruct)版本已经在 GitHub 和 Hugging Face 上发布,可用于研究和商业用途。人们可以自行在公共、自定义或其他专有数据上运行和调整它们,也可以通过 API 的形式使用。基础版::
3/28/2024 3:15:00 PM
机器之心

快速入门大模型技术与应用,推荐你从Stable Diffusion开始学起

自 2023 年 AI 技术爆发以来,以 ChatGPT、Stable Diffusion 为代表的大模型已然成为了大众的焦点,其中 Stable Diffusion 作为知名的视觉开源模型,凭借直观易用与令人印象深刻的图像生成能力,赢得了创作者的广泛青睐。随着人工智能技术的不断进步和创新,Stable Diffusion 已经在艺术创作、设计领域乃至科学研究中展现出了独特的魅力和巨大的潜力。它不仅能够在短时间内生成高分辨率、细节丰富的图像,还能够通过简单的文本描述实现复杂视觉内容的创造,这使得 Stable Di
5/29/2024 3:10:00 PM
机器之心

周鸿祎自称“开源信徒”:宣布将开源 360 智脑 7B 模型,支持 50 万字长文本输入

感谢360 创始人周鸿祎近日透露即将开源 360 智脑 7B(70 亿参数模型),支持 360k(50 万字)长文本输入。周鸿祎表示,前段时间大模型行业卷文本长度,100 万字“很快将是标配”。“我们打算将这个能力开源,大家没必要重复造轮子,定为 360k 主要是为了讨个口彩。”他还自称“开源的信徒”,信奉开源的力量。据介绍,360 智脑长文本能力已入驻大模型产品“360AI 浏览器”。周鸿祎还谈到了小模型的优势:其认为小模型速度快、用户体验也好,单机单卡就能跑,具备更高的性价比。目前,360AI 浏览器已向用户免
3/29/2024 3:27:56 PM
清源

Databricks 推出 1320 亿参数大语言模型 DBRX,号称“现阶段最强开源 AI”

Databricks 近日在推出了一款通用大语言模型 DBRX,号称是“目前最强开源 AI”,据称在各种基准测试中都超越了“市面上所有的开源模型”。IT之家从官方新闻稿中得知,DBRX 是一个基于 Transformer 的大语言模型,采用 MoE(Mixture of Experts)架构,具备 1320 亿个参数,并在 12T Token 的源数据上进行预训练。研究人员对这款模型进行测试,相较于市场上已有的 LLaMA2-70B、Mixtral、Grok-1 等开源模型,DBRX 在语言理解(MMLU)、程式设
3/31/2024 3:15:05 PM
漾仔

阿里通义千问开源 320 亿参数模型,已实现 7 款大语言模型全开源

感谢4 月 7 日,阿里云通义千问开源 320 亿参数模型 Qwen1.5-32B。IT之家注意到,通义千问此前已开源 5 亿、18 亿、40 亿、70 亿、140 亿和 720 亿参数 6 款大语言模型。此次开源的 320 亿参数模型,将在性能、效率和内存占用之间实现更理想的平衡。例如,相比通义千问 14B 开源模型,32B 在智能体场景下能力更强;相比通义千问 72B 开源模型,32B 的推理成本更低。通义千问团队希望 32B 开源模型能为企业和开发者提供更高性价比的模型选择。目前,通义千问共开源了 7 款大语
4/8/2024 11:50:26 AM
远洋

360 智脑 7B 参数大模型开源,支持 50 万字长文本输入

感谢360 公司日前在 GitHub 上开源了 360 智脑 7B(70 亿参数模型)。360 智脑大模型采用 3.4 万亿 Tokens 的语料库训练,以中文、英文、代码为主,开放 4K、32K、360K 三种不同文本长度。360 表示,360K(约 50 万字)是当前国产开源模型文本长度最长的。360 表示,他们在 OpenCompass 的主流评测数据集上验证了模型性能,包括 C-Eval、AGIEval、MMLU、CMMLU、HellaSwag、MATH、GSM8K、HumanEval、MBPP、BBH、L
4/12/2024 6:30:18 PM
沛霖(实习)
  • 1