AI在线 AI在线

国内首个光互连光交换 GPU 超节点光跃 LightSphere X 发布,曦智壁仞中兴等参与

AI在线 7 月 30 日消息,在上周六开幕的 2025 世界人工智能大会上,上海仪电、曦智、壁仞、中兴四方联合发布了国内首个光互连光交换 GPU 超节点 —— 光跃 LightSphere X。 这一超节点基于曦智“全球首创”的分布式光交换技术,采用硅光 (SiPh) 技术的光互连光交换芯片和壁仞大算力 GPGPU 液冷模组与全新载板互连,并搭载中兴高性能 AI 国产服务器及仪电智算云平台软件,实现了智算集群的高带宽、低延迟、灵活可扩展。 超节点架构通过深度整合 GPU 资源,在内部构建起低延迟、高带宽的统一算力实体,支持算力集群“万卡协同”。

AI在线 7 月 30 日消息,在上周六开幕的 2025 世界人工智能大会上,上海仪电、曦智、壁仞、中兴四方联合发布了国内首个光互连光交换 GPU 超节点 —— 光跃 LightSphere X

国内首个光互连光交换 GPU 超节点光跃 LightSphere X 发布,曦智壁仞中兴等参与

这一超节点基于曦智“全球首创”的分布式光交换技术,采用硅光 (SiPh) 技术的光互连光交换芯片和壁仞大算力 GPGPU 液冷模组与全新载板互连,并搭载中兴高性能 AI 国产服务器及仪电智算云平台软件,实现了智算集群的高带宽、低延迟、灵活可扩展。

超节点架构通过深度整合 GPU 资源,在内部构建起低延迟、高带宽的统一算力实体,支持算力集群“万卡协同”。

光跃 LightSphere X 通过高效低延迟的光互连实现跨大量机柜构建超节点,突破单机柜功耗限制和传统铜互联扩展限制,在兼容现有数据中心基础设施的同时支持集群弹性扩展,可实现超节点规模动态调整。

这一超节点架构在 GPU 上集成光交换功能实现分布式光交换,相比传统的集中式光互连支持拓扑灵活切换与故障场景实时重构,最大部署规模则能达到 2000 卡。

国内首个光互连光交换 GPU 超节点光跃 LightSphere X 发布,曦智壁仞中兴等参与

光跃 LightSphere X 项目也获得了 2025 世界人工智能大会最高奖项:SAIL 卓越人工智能引领者奖。

2025 世界人工智能大会专题

相关资讯

中兴努比亚启动接入百度文心 4.5 系列开源大模型:提供更具情感化的对话体验,准确快速的文本处理

AI在线 7 月 10 日消息,中兴努比亚今日宣布启动接入百度文心 4.5 系列开源大模型,基于“AI Together”理念持续深化多专家大模型架构,提供更具情感化的对话体验,准确快速的文本处理。 AI在线注意到,百度于 6 月 30 日正式开源文心大模型 4.5 系列模型,涵盖 47B、3B 激活参数的混合专家(MoE)模型,与 0.3B 参数的稠密型模型等 10 款模型,并实现预训练权重和推理代码的完全开源。 目前,文心大模型 4.5 开源系列已可在飞桨星河社区、HuggingFace 等平台下载部署使用,同时开源模型 API 服务也可在百度智能云千帆大模型平台使用。
7/10/2025 9:43:21 AM
浩渺

中兴亮相首款情感陪伴 AI 宠物“麻薯”Mochi 及多款 AI 产品

AI在线 7 月 30 日消息,中兴终端昨天在上海参加了 2025 世界人工智能大会,首度公开亮相了全新 AI 宠物“麻薯”Mochi,展示了他们在 AI 方面的最新成果。 ▲ AI 宠物“Mochi”的外观,图源中兴官网据介绍,这款 AI 宠物拥有“第一眼心动的治愈外表”,其类生命体的交互体验不止于陪伴的“情感联结”,号称能成为“更聪明、更听话、更懂你的情感搭子”。 目前这款产品尚未正式发布,但中兴在现场宣布了“Mochi 领养计划”,招募首批深度体验用户。
7/30/2025 4:13:58 PM
潞源(实习)

榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

当大语言模型(LLM)走向千行百业,推理效率与显存成本的矛盾日益尖锐。 KV Cache (Key-Value Cache)作为提升生成速度的核心技术,却像一个 “吞存巨兽”—— 每增加一个 token,就需要更多显存存储键(Key)和值(Value)向量,最终成为制约模型规模扩张、并发能力提升的 “紧箍咒”如何高效、经济地扩展KV Cache存储空间,已成为全球AI产研界亟待攻克的高地。 Nvidia开源的Dynamo项目,实现存储系统多级缓存算法,热数据在显存、温数据在主机内存、冷数据在 SSD 或远端对象存储,并通过一套统一的索引 异步流水线实现自动迁移与透明访问,但是多级存储之间的数据迁移流程复杂,延迟开销难以压缩。
8/26/2025 1:52:59 PM
允中
  • 1