AI在线 AI在线

谁在重新定义 AI 云?

过去几年,AI 几乎成了云计算行业的统一叙事。 无论是阿里提出的全面 AI 化,火山云强调的 Token性价比,还是百度持续加码的大模型战略,厂商们都在努力用 AI 定义未来的云。 但当这些口号越来越密集时,也变得越来越相似。

过去几年,AI 几乎成了云计算行业的统一叙事。

无论是阿里提出的全面 AI 化,火山云强调的 Token性价比,还是百度持续加码的大模型战略,厂商们都在努力用 AI 定义未来的云。但当这些口号越来越密集时,也变得越来越相似。

算力提升、模型迭代、Agent 探索,几乎成了每一家厂商的必备动作,差异化正在快速消解。宣传中,各种“全球领先”“业内首创”的表述层出不穷,但落到用户体验与产业落地,差别并不显著。对大多数企业来说,除了价格、服务条款和生态黏性,真正能感知到的差异其实并不多。

另一方面,AI 本身也正从“炫技”走向“应用”。2023年 到 2024 年间,行业一度沉浸在大模型突破带来的震撼中,但进入 2025年,客户的关注点已不再是模型参数的数量或推理速度的极限,而是如何把 AI 嵌入产业流程,真正带来效率和价值。换句话说,现在的问题已经不在于 AI 能否更强,而在于它能否更有用。

在这样的背景下,华为云在华为全联接大会 2025 上提出了一套新的组合:超节点 Token 服务、液冷、企业级 Agent,并将具身智能、盘古大模型纳入其中,颇有一种想要突破行业现状的感觉。表面上是新技术的推出,实质上是对行业现实的回应——当成本、基建和应用都成为瓶颈时,差异化的叙事已成为厂商的必答题。

AI 云的困境

今天的 AI 云,几乎都在讲同样的故事:大算力、大模型、大生态。

算力规模、训练速度、推理延迟被摆在最显眼的位置,厂商之间不断刷新极限,以此证明自己的领先地位。大家的焦点都落在技术性能的极限上,却鲜少能回答一个更现实的问题:这些技术突破如何真正改变企业的生产力和产业效率?

于是,“性能大战”逐渐成了行业的默认赛道。故事讲得越来越大,但和它对应的商业回报、客户价值,却没能同步跟上。更麻烦的是,AI 云还背着“三座大山”:

第一座是成本。动辄数十万卡的 GPU/NPU 集群,硬件采购和能耗支出不断飙升。算力价格越炒越高,厂商如果想维持领先,就要不停砸钱。可现实是,回报周期模糊,巨额前期投入很难快速收回。

第二座是基建。数据中心建设动辄数年,PUE 要不要压到 1.1 以下,单机柜能不能撑起更高功率,这些不只是环保指标,更决定能不能撑起百万级算力。但一旦方向押错,沉没成本会非常沉重。

第三座是应用。大模型在推理、生成上不断刷纪录,可能真正复制、规模化落地的案例仍不多。很多企业的项目还停在演示或 POC 阶段,真正嵌进业务流程的并不多。

这使得 AI 云行业陷入一种悖论:厂商们的竞争愈演愈烈,叙事越来越庞大,但客户端感受到的价值却不成正比。性能不断突破,成本却居高不下,应用迟迟难以落地,这或许就是当前 AI 云叙事与产业价值之间最大的张力所在。

谁在重新定义 AI 云?

如果说叙事趋同和成本压力是行业的共性问题,那么客户需求的高度分化则揭示了更深层的挑战:不同类型的客户,对 AI 云的诉求完全不同,几乎不存在可以“一招通吃”的方案。

互联网公司最在意的是灵活扩容和价格可控:流量高峰要能瞬时撑起数千万并发,低谷又要迅速收缩,否则成本就会失控。如果云厂商不给出弹性计费和友好价格,粘性很难建立。

央国企则把合规与安全放在首位。数据主权、监管要求、隐私保护是红线,它们更关注模型能否“可控在域”,算力能否本地备份,能否有完整的审计与容灾机制。

新兴产业(智能制造、教育、内容创作等)强调快速试错。它们希望低门槛接入 AI,用最小的成本换机会,不追求模型参数多大,而需要开箱即用的工具、轻量化 API,甚至直接可用的场景模型。

智能驾驶则对实时性和稳定性要求极高,任何延迟都可能是安全风险,因此必须依赖低时延的边缘计算和云端协同。除此之外,具身智能还面临本体受限:功耗、电池、体积都有限,没法把大算力塞进机器人。如果把推理和训练迁到云端,就能让机器更轻、省电,同时获得更强的感知和决策能力。这也是它对 AI 云最强的依赖。

正因为需求如此分化,AI 云已经很难靠单一叙事去覆盖所有客户。算力再大、模型再强,也无法同时满足不同的行业。这迫使厂商必须真正深入行业场景,基于不同客户的特征提供差异化的解决方案,AI 云的价值正在从“统一的口号”,逐步转变为“多样的答案”。

于是产生了一个自然的问题:面对分化的需求,厂商们能提出怎样的答案?华为的尝试,就提供了一个值得观察的样本。

谁在重新定义 AI 云?

华为的尝试

在华为全联接大会 2025 上,华为云给出了一套不同于惯常“大算力、大模型”的路径,而是通过软硬协同、架构创新,做厚算力黑土地来回应行业的困境。

谁在重新定义 AI 云?

华为常务董事、华为云计算CEO张平安

算力层面,华为云基于CloudMatrix384的 AI Token 推理服务全面上线。Token 推理服务意味着可以高效地直接获得“AI 的最终结果“, 而不必关心AI硬件的更新迭代,也不必关心推理框架、模型部署等复杂的软件技术栈。华为云认为,算力的竞争本质上是以优的性能、好的服务、高的质量,来高效地满足各行各业所需。

CloudMatrix384 超节点将资源全面池化,将计算型任务、存储型任务、AI专家系统解耦,将串行任务变成分布式并行任务,极大地提升了系统的推理性能。在在线、近线和离线等推理场景中,CloudMatrix384 平均单卡的推理性能达到 H20 的 3 到 4 倍。

大会期间,华为云还表示,未来,CloudMatrix 超节点还将从 384 卡升级至 8192 卡,依托MatrixLink 高速对等互联网络结合多网合一技术,实现百万卡的超大集群,提供更澎湃的AI算力。 

同时发布的EMS 弹性内存存储服务被称为“以存强算”,通过内存扩展显存,解决显存不足导致的推理时延大幅提升的问题。官方数据称,多轮对话和长链推理的首 Token 时延可降低 90%,这等于直接触及行业最敏感的用户体验指标。

基础设施上,华为在贵州、内蒙古、安徽等地同步落地的全液冷 AI 数据中心,目标是通过冷板式液冷、AI 调优与 IoT 运维实现极致能效。PUE 压低至 1.1,单机柜功率提升至 80kW,不只是能耗改善的数据,而且意味着客户可以“租用”到接近最优形态的数据中心资源,而不必再背上巨额的自建负担。

谁在重新定义 AI 云?

平台层,华为把重心放在企业级 Agent 平台。不同于个人用户的轻量化 Agent,企业级 Agent 必须满足稳定性、低幻觉率和可解释性。

华为云的 Versatile 平台由五大模块组成:AgentSpace、AgentStudio、AgentRun、AgentOps、AgentGallery,涵盖从自然语言生成 Agent 的工具链,到高性能沙箱的运行环境,再到安全隔离与运维体系。除此之外,提出的 NL2Agent 技术号称“像写文档一样开发 Agent”,目标是缩短企业从需求到可运行 Agent 的路径。

谁在重新定义 AI 云?

华为高级副总裁、华为云全球Marketing与销售服务总裁杨友桂

落地案例也进入深水区:在差旅管理中,慧通差旅基于 Versatile 打造了智能体“通宝”,涵盖出差提醒、路径规划、智能问答等等。在路径规划方面,“通宝”目前的采用率已超50%,2分钟即可完成预订。工业领域的万华化工,则将复杂的 SOP 审核流程交给 Versatile 平台开发的工作流 Agent 来完成,让数以万计的 SOP 文档实现自动化质量审核,显著减轻了工程师的重复劳动。

这些数据表明,企业级 Agent 已不再是纸面概念,而是正在成为重塑企业生产方式的现实工具。

谁在重新定义 AI 云?

在机器人和具身智能领域,华为选择了一条不同于业内多数玩家的路径:把算力迁到云端。   

CloudRobo 平台通过云端算力和智能,缓解机器本体在体积、功耗和成本上的限制,使其更轻量化,并大幅提升执行的精度与效率。R2C(Robot to Cloud) 协议则意在统一多厂商、多系统的数据、通讯和指令接口,试图打破长期存在的生态割裂。目前已有 20 多家伙伴加入生态,覆盖制造、物流、康养等场景。

在国家地方共建人形机器人创新中心的案例中,结合真机与合成数据训练,机器人在多个场景下的整体分拣任务成功率可达90%以上,行业领先,初步证明了“云上具身智能”的可行性。

谁在重新定义 AI 云?

而在大模型层面,华为更是提出了“开源+商用”的双轨并行策略:一方面,openPangu 开源部分 NLP 模型,降低客户和开发者在昇腾上的使用门槛,增强外部开发者生态的活力,另一方面,商业版盘古已在 30 多个行业孵化出 200 多个专业模型,覆盖 500 多个产业场景,强调“行业专用模型”在可解释性和安全性上的优势。

这种组合既是技术层面的策略选择,也是华为对过去“盘古风波”的正面回应 —— 通过开源表态开放,通过商用展示落地,重建市场信任。

谁在重新定义 AI 云?

未定的答案

AI 云的竞争,已经不是谁喊得更 AI,而是谁能真正把 AI 嵌进产业。华为给出了一条新的路径:在超节点和液冷上突破性能极限,在企业级Agent和具身智能上寻找差异化。

但这条路径并非没有挑战。国际市场上,AWS 和 Azure 依然把控着最成熟的全球生态和开发者心智,形成难以逾越的壁垒。在国内,昇腾生态仍处于培育期,要像 CUDA 那样建立强粘性,需要时间和大规模开发者的验证,而企业级 Agent 和具身智能的落地,更注定是一个复杂而漫长的过程,不仅要解决技术问题,还要穿透行业流程,赢得客户的长期信任。

而对整个行业而言,真正的考验在于能否把炫技的叙事转化为可持续的生产力。只有当 AI 云不再只是舞台上的口号,而是成为产业链中的基础设施时,这场竞争才算真正走向了下半场。

相关资讯

华为云AI原生基础设施CloudMatrix亮相全联接大会

今天,在华为全联接大会 2024 上,华为云发布了 AI 原生云基础设施架构 CloudMatrix,以满足 AI 时代企业对于算力的大规模、高效稳定、弹性灵活的需求。华为云 AI 原生云基础设施架构 CloudMatrix 正式发布如今,AI 算力需求高速增长,正在超越对通用算力的需求。构建弹性、高效的多元算力基础设施是 AI 发展的关键。为了进一步提升 AI 原生基础设施的效能,华为云推出 AI 原生云基础设施 CloudMatrix,将 CPU、NPU、DPU、存储和内存等资源全部互联和池化,构建「一切可池化
9/20/2024 12:13:00 PM
新闻助手

华为云北方首批超节点 AI 智算中心开服

AI在线 7 月 12 日消息,据华为云消息,以“共筑绿色算力大生态共创人工智能新未来”为主题的 2025 绿色算力(人工智能)大会今日在呼和浩特成功举行。 大会期间,华为云华北(和林格尔)数据中心(以下简称“和林格尔数据中心”)正式开服,同时北方首个基于 CloudMatrix384 超节点的新一代昇腾 AI 云服务发布。 ▲ 图源:华为云,下同据介绍,和林格尔新区作为我国绿色算力与人工智能产业发展的前沿阵地,作为国家“东数西算”工程八大枢纽十大数据中心集群之一,新区 46 个数据中心项目总算力规模达 9.1 万 P,其中智能算力规模达 8.8 万 P,数据中心“绿电”使用率已达 80% 以上。
7/12/2025 10:26:27 PM
归泷

我们深入华为这场线下闭门会,全方位围观中国大模型这一年

如何认识大模型?如何应对大模型的影响?为了发展大模型,我们该问哪些问题?2023 年是大模型之年。大模型代表了人工智能领域的重大进步,有史以来第一次人类真正看见了通用人工智能(AGI)的曙光。然而,关于大模型,我们了解得并不多。以 OpenAI 首席科学家 Ilya Sutskever 为代表的一些 AI 研究者坚信,足够精确地预测下一个词表明模型对文本内容有了足够深刻的理解。反对者则说,这只不过是统计学。显然,我们正处于一场变革的起点。关于大模型,我们知道些什么?该关注哪些问题?在刚刚举办的 2023 华为云 A
12/27/2023 3:15:00 PM
机器之心
  • 1