AI在线 AI在线

《自然》重磅:微软推出MatterGen ,AI 颠覆材料设计

刚刚,顶尖学术期刊《自然》(Nature)刊发了一项具有里程碑意义的研究成果:微软研究院的研究团队成功开发了一种名为MatterGen的全新扩散生成模型。 MatterGen 的出现为材料科学的逆向设计开启了一个全新的篇章,它不仅能够生成覆盖整个元素周期表、稳定且多样的无机材料,而且能够通过微调,精确地控制所生成材料的化学成分、对称性以及包括磁性密度、力学性能、电子特性等在内的多种物理性质MatterGen的创新之处MatterGen之所以能够取得如此显著的突破,源于其在模型架构和训练方法上的多维度创新:1.  定制化的扩散过程: 针对晶体材料的特殊性,MatterGen引入了一套定制化的扩散过程,该过程可以独立地对原子类型、坐标和晶格进行扰动,并将其导向一个符合物理规律的随机分布。

刚刚,顶尖学术期刊《自然》(Nature)刊发了一项具有里程碑意义的研究成果:微软研究院的研究团队成功开发了一种名为MatterGen的全新扩散生成模型。MatterGen 的出现为材料科学的逆向设计开启了一个全新的篇章,它不仅能够生成覆盖整个元素周期表、稳定且多样的无机材料,而且能够通过微调,精确地控制所生成材料的化学成分、对称性以及包括磁性密度、力学性能、电子特性等在内的多种物理性质

图片

MatterGen的创新之处

MatterGen之所以能够取得如此显著的突破,源于其在模型架构和训练方法上的多维度创新:

1. 定制化的扩散过程: 针对晶体材料的特殊性,MatterGen引入了一套定制化的扩散过程,该过程可以独立地对原子类型、坐标和晶格进行扰动,并将其导向一个符合物理规律的随机分布。这种方法在对晶体结构中的原子坐标进行扰动时,充分考虑了周期边界条件,并通过缩放噪声大小,来消除晶胞尺寸的影响,从而确保了扰动的合理性和有效性。对于原子类型,MatterGen采用了掩码(mask)方法,使其向“未确定”状态扩散,以便能够生成新类型的结构。对于晶格,该模型采用对称形式的扩散,使其趋向一个具有平均原子密度的立方晶格

2. 等变性评分网络: 为了逆转上述扩散过程,MatterGen训练了一个等变性评分网络,该网络能够输出原子类型、坐标和晶格的等变分数,从而无需直接从数据中学习对称性,显著提高了模型的效率和泛化能力

3. 自适应模块与微调: 为了控制生成过程,MatterGen 引入了自适应模块,这些模块可以插入到基础模型中的每一层,并根据给定的性质标签来调整模型的输出。此外,研究人员还采用了分类器自由引导(classifier-free guidance)的方法,进一步引导生成过程朝向特定的目标性质。微调策略不仅能够提升模型的表现,还能在标记数据量有限的情况下高效工作,这在材料科学领域至关重要,因为性质计算的成本往往非常高昂

4. 大规模数据集训练: MatterGen的卓越性能还得益于大规模、高质量的训练数据集,即Alex-MP-20,它包含了来自Materials Project (MP)和Alexandria等数据库的607,683个稳定结构,覆盖了多种化学元素和晶体结构。通过如此庞大的数据集进行训练,MatterGen能够更好地理解晶体材料的规律,从而提高其生成稳定、多样材料的能力

  1. 图片

MatterGen的性能评估与实验验证

为了验证MatterGen的性能,研究人员进行了多方面的评估:

稳定性评估: 研究人员使用密度泛函理论(DFT)计算对MatterGen生成的结构进行了能量弛豫,并证明绝大部分结构的能量都接近于其局部最小值,表明了这些结构的稳定性

多样性评估: 研究结果显示,即使生成数百万个结构,MatterGen仍然能够产生高度多样性和独特性,其发现新材料的能力远超传统方法。此外,MatterGen还能重新发现训练数据中没有的2000多个已知的实验验证结构,证明了其在材料发现方面的巨大潜力

图片

与现有模型对比: 通过与CDVAE, DiffCSP等先前先进生成模型进行对比,MatterGen显著提升了S.U.N(稳定、独特、新颖)材料的生成比例,同时显著降低了生成结构与DFT弛豫结构之间的均方根偏差(RMSD),证明了MatterGen在生成稳定材料和逼近真实结构方面的优异性能

图片

化学成分引导: MatterGen 在目标化学系统中的表现也超越了传统的替代法和随机结构搜索(RSS)方法,能够更加高效地生成在目标体系中处于能量凸包上的稳定结构,尤其是在成分复杂的五元体系中优势更加显著

物理性质引导: MatterGen 能够根据特定的磁性密度、带隙和体积模量等物理性质进行微调,生成符合目标要求的材料,这也表明了 MatterGen 在逆向设计材料方面的强大能力,甚至能克服训练数据分布中出现的极端值的问题

多目标优化: 为了满足更复杂的实际需求,MatterGen 可以针对多个性质同时进行优化,例如同时满足高磁密度和低供应链风险的永磁材料

实验验证: 作为概念验证,研究团队通过实验合成了MatterGen设计的一种材料 (TaCr2O6 ),并测量了其杨氏模量,推导出其体积模量与MatterGen的预测值相差仅20%,这有力地证明了MatterGen的实际应用潜力

图片

写在最后:

MatterGen的发布不仅仅是一项技术突破,它更代表着材料科学研究范式的转变。研究团队相信,MatterGen的卓越性能和广泛适用性使其有潜力成为未来材料科学领域的核心工具

相关资讯

微软开源 Aurora AI 气象预报模型,微调后还可用于洋流 / 空气质量监测等领域

微软开源 Aurora AI 气象预报模型,结合深度学习与大规模数据处理,可精准预测天气、洋流和空气质量。该模型在热带气旋预测、海浪高度和空气质量预报中表现优异。已整合至 MSN 天气服务,并提供开发者试用。#AI气象预测# #微软开源#
5/27/2025 6:55:17 PM
漾仔

Mistral AI新模型对标GPT-4,不开源且与微软合作,网友:忘了初心

「欧洲版 OpenAI」的「最强开源大模型」,被微软收编了。生成式 AI 领域,又有重量级产品出现。周一晚间,Mistral AI 正式发布了「旗舰级」大模型 Mistral Large。与此前的一系列模型不同,这次 Mistral AI 发布的版本性能更强,体量更大,直接对标 OpenAI 的 GPT-4。而新模型的出现,也伴随着公司大方向的一次转型。随着 Mistral Large 上线,Mistral AI 推出了名为 Le Chat 的聊天助手(对标 ChatGPT),任何人都可以试试效果。试用链接:,Mi
2/27/2024 3:08:00 PM
机器之心

微软深夜再掀 AI 生产力革命:阿尔特曼登台“自曝”新模型、定制 Copilot

【新智元导读】微软昨夜刚上演了一波 AI PC 革命,今天又全是 Copilot。而最让人意外的,竟是阿尔特曼本人登台预告了下一代模型将会带来新的模态和整体智能。AI 生产力的革命,微软怎会缺席?在今天的开发者大会上,曾经誓要「颠覆」10 亿打工人的 Copilot,依然是全程的主角。▲ 没想到 70 年后,还是要靠微软重新定义软件不仅有 Copilot 加持的全新 AI PC,日常生活助手 Copilot,还有为全世界开发者提供的 AI 工具堆栈。更惊喜的是,Sam Altman 竟然在发布会的最后,被 CTO
5/22/2024 8:45:15 AM
汪淼

微软正努力治疗 AI 幻觉,以技术手段实时屏蔽和重写毫无根据的信息

就在 GPT-4 因征服标准化测试而登上头条时,微软研究人员正在对其他 AI 模型进行一种非常另类的测试 —— 一种旨在让模型捏造信息的测试。为了治好这种被称为“AI 幻觉”的症状,他们设定了一个会让大多数人头疼的文本检索任务,然后跟踪并改进模型响应,这也是微软在测定、检测和缓解 AI 幻觉方面的一个例子。微软 AI 负责项目的首席产品官 Sarah Bird 表示,“微软希望其所有 AI 系统都是值得信赖且可以有效使用的”。我们可以向这个领域投入许多专家和资源,因此我们认为自己可以帮助阐明“应该如何负责任地使用新
6/21/2024 10:37:35 PM
问舟

微软为 Excel 等研发新 AI 模型:性能较常规方案提高 25.6%,词元使用成本降低 96%

根据微软最新公布的研究论文,计划为 Excel、谷歌 Sheets 等电子表格应用程序,开发全新的 AI 大语言模型--SpreadsheetLLM。研究人员表示现有电子表格应用程序具备丰富的功能,在布局和格式方面为用户提供大量的选项,因此传统 AI 大语言模型很难胜任电子表格处理场景。而 SpreadsheetLLM 就是专门为电子表格应用而设计的 AI 模型,微软还研发了 SheetCompressor(压缩电子表格),让 SpreadsheetLLM 能够更好地理解、处理电子表格数据。AI在线援引论文摘要部分
7/16/2024 9:30:28 AM
故渊

GitHub Copilot 拥抱多模型,将引入 Claude 3.5 Sonnet 和 Gemini 1.5 Pro

感谢GitHub CEO Thomas Dohmke 在官方博客宣布,GitHub Copilot 将不再仅仅依赖 OpenAI 的 GPT 模型,而是转向多模型策略。 未来几周内,Anthropic 的 Claude 3.5 Sonnet 将率先集成到 Copilot Chat 的 Web 和 VS Code 界面中,随后谷歌的 Gemini 1.5 Pro 也将加入。 此外,GitHub 还将支持更多 OpenAI 模型,包括 GPT o1-preview 和 o1-mini,这些模型在高级推理方面比 GPT-4 更强大。
10/30/2024 10:28:28 AM
远洋

微软发布 Phi-4 多模态与迷你模型,语音视觉文本处理再升级

近日,微软进一步扩展了 Phi-4家族,推出了两款新模型:Phi-4多模态(Phi-4-multimodal)和 Phi-4迷你(Phi-4-mini),这两款模型的亮相,无疑将为各类 AI 应用提供更加强大的处理能力。 Phi-4多模态模型是微软首款集成语音、视觉和文本处理的统一架构模型,拥有5600万参数。 这款模型在多项基准测试中表现优异,超越了目前市场上的许多竞争对手,例如谷歌的 Gemini2.0系列。
2/27/2025 9:38:00 AM
AI在线

微软CEO吹爆「智能体」:AI不仅要“杀死”SaaS,操作系统也会“格式化”重来

微软CEO最新采访,分享给大家。 一个冷知识:微软作为IT巨头,虽然拥有OpenAI模型优先使用权,但到现在为止没有自己的拿得出手的模型,我们可以感受一下一个没有自研模型的大厂是如何思考未来满是AI的世界,微软如何通过AI来重塑产品和应用,如何挣钱。 这是微软CEO萨蒂亚·纳德拉(Satya Nadella)在Build 2025 大会后深度访谈,回应了备受争议的“SaaS已死”论,更抛出了“零成本智能”和“无代码操作系统”的颠覆性愿景。
5/28/2025 10:27:08 AM

微软开源 Aurora AI 气象模型,助力天气与环境监测

近日,微软研究院宣布开源其 Aurora AI 气象预报模型。 这一模型结合了深度学习和大规模数据处理技术,旨在为气象预报和环境监测提供精准的解决方案。 Aurora AI 不仅能够高效预测天气,还可以经过微调后应用于洋流和空气质量监测等多个领域。
5/28/2025 12:01:25 PM
AI在线

打破僵局!OpenAI 模型首次登陆 AWS,云计算AI版图再掀波澜!

人工智能巨头 OpenAI 与亚马逊网络服务(AWS)正式宣布建立前所未有的合作伙伴关系,共同推出两款性能媲美其“O系列”的全新开源推理模型。 据 OpenAI 模型产品负责人德米特里·皮梅诺夫(Dmitry Pimenov)透露,这些模型已在 AWS 上线,标志着 AWS 首次正式提供 OpenAI 模型。 此举不仅为云计算市场投下了一枚重磅炸弹,也加剧了科技巨头在 AI 领域的激烈竞争。
8/6/2025 2:53:11 PM
AI在线

微软宣布 Windows 11 本地支持 OpenAI 开源模型 gpt-oss-20b

微软近日宣布,通过其 Windows AI Foundry 平台,正式向 Windows11用户提供 OpenAI 最新发布的免费开源大模型 gpt-oss-20b。 这意味着用户无需依赖云端,即可直接在本地电脑上调用强大的 AI 功能和各类热门开源模型。 微软在博客中指出,gpt-oss-20b 是一款轻量且高效的模型,尤其擅长执行代码、调用外部工具等任务。
8/8/2025 7:34:15 AM
AI在线

OpenAI发布GPT-5 微软旗下生态宣布已全面接入

今日,OpenAI正式推出备受瞩目的全新GPT-5系列模型,这一里程碑式的发布迅速引发行业震动。 几乎在同一时间,微软宣布将GPT-5深度整合至旗下Copilot、Microsoft365Copilot、Azure AI Foundry及GitHub Copilot等核心平台,标志着GPT-5正式全面登陆微软生态系统,为用户带来前所未有的智能体验升级。 GPT-5系列模型引入了创新的智能模式,能够根据用户任务需求自动切换适配的模型版本。
8/8/2025 10:31:22 AM
AI在线

突发!微软与OpenAI同日开火:语音之战+通用大模型,AI霸权决战打响

就在OpenAI发布最新的语音大模型之际,微软掏出了自研语音大模型! 微软AI掌门人、DeepMind联合创始人Mustafa Suleyman正式宣布:微软AI正式推出MAI-Voice-1以及MAI-1-预览版! 而且还有更多内容即将推出。
8/29/2025 2:41:52 PM

iPhone 上本地每秒生成 12 个 tokens,微软发布 phi-3-mini 模型:38 亿参数

微软研究院近日发布技术报告,公布了 Phi-3 系列 AI 模型,共有 mini(38 亿参数)、small(70 亿参数)和 medium(140 亿参数)三个版本。微软表示拥有 38 亿参数的 phi-3-mini 通过 3.3 万亿个 tokens 上训练,其基准跑分性能超出 Mixtral 8x7B 和 GPT-3.5。微软表示 phi-3-mini 模型可以部署在手机等设备上,在 27 亿参数的 Phi-2 模型上,进一步整合了严格过滤的网络数据和合成数据。微软也坦言 phi-3-mini 模型虽然通过优
4/23/2024 1:53:17 PM
故渊

消息称微软将推出自研新 AI 模型“MAI-1”,与谷歌、OpenAI 竞争

据 The Information 北京时间今晚报道,微软正在公司内部训练一个新的人工智能模型,其规模足以与谷歌、Anthropic,乃至 OpenAI 自身的先进模型相抗衡。报道称,这个新模型内部代号为“MAI-1”,由前谷歌 AI 领导人 Mustafa Suleyman 带队负责。在 Mustafa 进入微软之前,他曾担任初创公司 Inflection 的 CEO,直到今年 3 月微软支付 6.5 亿美元(IT之家备注:当前约 46.87 亿元人民币)购买该公司产权并雇佣大部分员工。图源 Pixabay微软的
5/6/2024 10:55:02 PM
清源

微软 Phi-3-vision 基准测试:和 Claude 3-haiku、Gemini 1.0 Pro 相当

微软在 Build 2024 大会上发布了 Phi-3 家族的最新成员--Phi-3-vision,主打“视觉能力”,能够理解图文内容,同时据称可以在移动平台上流畅高效运行。Phi-3-vision 是一款多模态小型语言模型(SLM),主要用于本地 AI 场景,该模型参数量为 42 亿,上下文长度为 128k token,能够为常规视觉推理任务和其他任务提供支持。那么 Phi-3-vision 有多厉害?微软今天发布了新的论文 [PDF],表示该 SLM 和 Claude 3-haiku、Gemini 1.0 Pr
5/28/2024 8:45:08 AM
故渊

专家模型不要专家并行!微软开源MoE新路径

继Phi家族之后,微软又开源了新的混合专家大模型——GRIN MoE。 与Phi-3.5同样的个头(16 * 3.8B),却采用了截然不同的训练方法。 这个「不走寻常路」如果写个太长不看版,那就是两句话:1.
11/11/2024 1:24:02 PM
新智元

微软Phi-4封神,14B小模型数学击败GPT-4o!合成数据占比40%,36页技术报告出炉

140亿参数,40%合成数据,年度SLM之王诞生! 最近,微软下一代小模型Phi-4正式亮相。 在GPQA和MATH基准上,其数学性能直接碾压GPT-4o、Gemini Pro 1.5。
12/23/2024 9:38:00 AM
新智元
  • 1