AI在线 AI在线

我国自主研发“磐石・科学基础大模型”发布:系统掌握数理化天地生六大学科核心定理

AI在线 7 月 26 日消息,中国科学院“磐石・科学基础大模型”今日在 2025 世界人工智能大会上正式发布。 该模型实现了对波、谱、场等多种科学模态数据的深入理解,具备科学文献萃取融合、科学知识表征推理和科学工具编排规划等核心能力。 当前,“人工智能 科学”研究普遍采用领域数据微调通用大模型、各自构建单一领域专用工具的模式,存在科学数据孤岛、专业推理能力不足、研发生态封闭三大挑战。

AI在线 7 月 26 日消息,中国科学院“磐石・科学基础大模型”今日在 2025 世界人工智能大会上正式发布。

该模型实现了对波、谱、场等多种科学模态数据的深入理解,具备科学文献萃取融合、科学知识表征推理和科学工具编排规划等核心能力。

图片

当前,“人工智能 + 科学”研究普遍采用领域数据微调通用大模型、各自构建单一领域专用工具的模式,存在科学数据孤岛、专业推理能力不足、研发生态封闭三大挑战。

中国科学院自动化研究所等研发的“磐石・科学基础大模型”,可实现对数据和模型等各类资源的管理,以及对计算仿真等各类工具的调度。科研人员可在科研各环节轻松调用模型,实现人工智能在科学研究中的无感嵌入。

  • 在核心架构方面,“磐石・科学基础大模型”采用异构混合专家架构,在国产开源大模型基础上,面向科学领域进行深度定制,集成了自主研发的一系列面向共性科学数据模态的专用模型,并融合了 AlphaFold、MatterGen 等领域专业模型。

  • 在科学能力方面,该大模型已系统掌握数理化天地生六大学科核心定理、定律与专业知识,并实现了对波、谱、场等多种科学模态数据的深入理解。

基于“磐石・科学基础大模型”,研发团队还开发了“磐石・文献罗盘”和“磐石・工具调度台”两个科学智能体。

  • “磐石・文献罗盘”已接入 1.7 亿篇科技文献与实时开源科技信息,可深度理解包含公式与图表的科学数据。在其支持下,以往需要 3 至 5 天才能完成的文献调研工作可缩短至 20 分钟

  • “磐石・工具调度台”可自主规划及调用超过 300 个科学计算工具,实现工具的协同编排和便捷调用,可自动识别科研任务、智能编排并调度最优工具链,提升科研流程效率,支持用户灵活接入自有智能体与工具,快速搭建专属科研应用。

AI在线从中国科学院公告获悉,“磐石・科学基础大模型”已经在多个学科领域进行了深入应用。

  • 在生命科学领域,科研团队构建了 X-Cell 数字细胞大模型,实现了从基因序列和中心法则到细胞表型的整体建模,推动数字细胞实现靶点发现全流程自动化。

  • 在高能物理领域,北京正负电子对撞机的研究人员,正在实现粒子物理研究任务的自动分解与高效规划,生成覆盖粒子物理工作流各阶段的分析程序,有效提升了粒子模拟速度与重建效率。

  • 在力学研究中,“磐石・科学基础大模型”发挥强大的科学数据理解和预测能力,高效计算高铁模型在多种流体环境下的表面压力场,为高铁构型设计提供了数据支持。

  • 此外,“磐石・科学基础大模型”正帮助科学家在化学合成中提升实验效率,在分子结构预测中实现更加准确的预测结果,在天文观测中实现智能化的全球资源调度与分析等。

中国科学院表示,在服务真实科学需求的过程中,“磐石・科学基础大模型”将持续迭代,提升实用性与可靠性。

相关资讯

磐石·科学基础大模型:人工智能赋能范式重塑,科学研究开启无限可能

人工智能正在重塑科研底层逻辑、加速科学发现,“人工智能 科学”已成为趋势,为解决人类面临的重大科学技术难题提供了前所未有的机遇。 7月26日,中国科学院联合团队研发的“磐石·科学基础大模型”在2025世界人工智能大会上正式发布。 “磐石·科学基础大模型”是采用专业科学知识和数据进行训练、服务于科学任务的智能底座,实现了对波、谱、场等多种科学模态数据的深入理解,具备科学文献萃取融合、科学知识表征推理和科学工具编排规划等核心能力,目标为各领域科技创新提供“坚如磐石”的智能支撑。
7/26/2025 2:08:00 PM
新闻资讯

独家 | GPT-4、Midjourney之外,谭平创业团队要造一个3D基础模型

前段时间,OpenAI 发布了文生图模型 DALL・E 3,生成效果非常惊艳。比如,你可以让它一次画出几十个物体,然后再要求它把这些物体全部放到一个冲浪者的背上:  可以看到,DALL・E 3 不仅画出了足量的物体,就连冲浪者面对重压时的神情都刻画了出来。但细心的网友也发现了一些问题:图中的铅笔等物体比例不太正常,模型似乎不太理解日常物品的大小比例关系。类似的问题其实不仅存在于 DALL・E 3 等二维图像生成模型。当生成维度提升到三维时,问题变得更加突出:生成的动物可能会有多张脸、多个头或脸部凹陷而非凸起。这些在
10/31/2023 3:13:00 PM
机器之心

CVPR 2024 | 一统所有目标感知任务,华科&字节提出目标感知基础模型GLEE

近年来,LLM 已经一统所有文本任务,展现了基础模型的强大潜力。一些视觉基础模型如 CLIP 在多模态理解任务上同样展现出了强大的泛化能力,其统一的视觉语言空间带动了一系列多模态理解、生成、开放词表等任务的发展。然而针对更细粒度的目标级别的感知任务,目前依然缺乏一个强大的基础模型。为了解决这个问题,来自华中科技大学和字节跳动的研究团队提出了一个针对视觉目标的基础模型 GLEE,一次性解决图像和视频中的几乎所有目标感知任务。GLEE 支持根据任意开放词表、目标的外观位置描述、和多种交互方式进行目标检测、分割、跟踪,并
3/21/2024 2:32:00 PM
机器之心
  • 1