AI在线 AI在线

“iFold”,苹果AI新成果

起猛了,苹果怎么搞起跨界AI模型了? ? 发布了一个基于流匹配的蛋白质折叠模型SimpleFold,被网友戏称为“iFold”。

起猛了,苹果怎么搞起跨界AI模型了??

发布了一个基于流匹配的蛋白质折叠模型SimpleFold,被网友戏称为“iFold”。

“iFold”,苹果AI新成果

SimpleFold没有花里胡哨的专属模块设计,就靠通用的Transformer模块,搭配流匹配生成范式,3B参数版本追平了该领域顶流模型谷歌AlphaFold2的性能。

“iFold”,苹果AI新成果

苹果这波跨界看来玩的是化繁为简

MacBook Pro跑起来不费力

首先来说说蛋白质折叠是怎么一回事。

核心是将“一串”氨基酸折成特定的3D形状,这样蛋白质才能发挥作用。

而蛋白质折叠模型就是从氨基酸的一级序列预测它的三维空间构象。

之前最厉害的模型,比如谷歌的AlphaFold2,虽然实现了突破,但用了很多复杂的专属设计。

比如要分析大量相似蛋白质的序列,依赖多序列对比(MSA)构建进化信息、靠三角注意力优化空间约束、推理时需调用超算级算力,普通实验室不太能用得起。

但这款“iFold”用通用AI框架解决了这个问题。

“iFold”,苹果AI新成果

SimpleFold在架构上采用多层Transformer编码器作为核心骨干,仅通过自适应层归一化适配蛋白质序列特征,相当于用“通用工具箱”解决专属领域难题。

核心创新在于引入流匹配生成技术

不同于扩散模型的逐步去噪,流匹配通过学习从随机噪声分布到蛋白质构象分布的光滑映射,实现一步式生成原子坐标。

“iFold”,苹果AI新成果

在训练阶段,团队构建了包含900万条数据的混合数据集,训练出了100M到3B参数的多尺度模型,其中SimpleFold-3B在CAMEO22 基准测试中,性能达到AlphaFold2的95%

在CASP14高难度测试集上,超越同类流匹配模型ESMFold。

“iFold”,苹果AI新成果

还值得一提的是效率,在搭载M2 Max芯片的MacBook Pro上,处理512残基序列的推理时间仅需两三分钟,远超传统模型的小时级耗时。

“iFold”,苹果AI新成果

研究团队

这项研究的第一作者Yuyang Wang本科毕业于同济大学,后赴美国卡内基梅隆大学深造,陆续取得机械工程硕士、机器学习硕士以及机械工程博士学位,长期的学习为其相关领域研究筑牢根基。

他有在Momenta从事强化学习研发的实习经历,还曾在苹果公司担任AI/ML Resident,专注于扩散模型研究,之后成为苹果的机器学习研究员。

“iFold”,苹果AI新成果

通讯作者是华人机器学习工程师Jiarui Lu,本科毕业于清华大学,就读期间还在朱军教授实验室中担任研究助理。

随后,Lu在卡内基梅隆大学取得了机器学习硕士学位,毕业后于2020年加入苹果公司。

曾经主导了一套关于大模型工具调用能力的Benchmark——ToolSandbox这一苹果开源成果。

“iFold”,苹果AI新成果

关于这款“iFold”,有感兴趣的、想扒技术细节的朋友可戳文末链接~

论文地址:https://arxiv.org/abs/2509.18480

代码地址:https://github.com/apple/ml-simplefold

相关资讯

2025苹果AI学者名单公布,黄子琪、孔令东、北大吉嘉铭、清华顾煜贤等12位年轻华人入选

刚刚,苹果机器学习研究中心(Apple Machine Learning Research)正式公布了 2025 年 AI(人工智能)、ML(机器学习)领域获得博士生奖学金的「苹果学者」名单。 今年共有 21 位年轻学者获得了苹果学者计划的资助,华人占了一半多。 苹果博士奖学金旨在奖励和支持计算机科学与工程领域极具潜力的博士研究生开展研究,每年颁发一次,今年已是第六年。
3/27/2025 1:02:21 PM
机器之心

围绕多智能体黑箱非凸优化共识难题,华南理工大学团队发表系列研究

多智能体系统分布式共识优化的一系列研究来了! 在智能城市、智能电网、无人系统等前沿应用不断扩展的今天,多智能体系统(Multi-Agent Systems, MAS)作为新一代智能协同的技术基础,正迎来前所未有的发展机遇。 在这些系统中,多个具备计算与通信能力的智能体需要在没有中心协调、通信受限的条件下实现任务协作、资源共享与一致性决策。
4/17/2025 8:55:24 AM
量子位

大模型何以擅长小样本学习?ICLR 2025这项研究给出详细分析

近年来,大语言模型(LLM)在人工智能领域取得了突破性进展,成为推动自然语言处理技术发展与通用人工智能实现的核心力量。 上下文学习能力(In-Context Learning, ICL)是 LLM 最显著且重要的能力之一,它允许 LLM 在给定包含输入输出示例的提示(prompt)后,直接生成新输入的输出,这一过程仅通过前向传播而无需调整模型权重。 这种能力使得 LLM 能够基于上下文中的示例快速理解并适应新任务,展现出强大的小样本学习和泛化能力。
4/27/2025 9:10:00 AM
机器之心
  • 1