AI在线 AI在线

Arm CEO 示警:美国未来 20%-25% 的电量将被 AI 数据中心消耗

感谢当地时间周二,Arm 公司 CEO 雷内・哈斯(Rene Haas)发出了严厉的警告,他表示人工智能收集的信息越多,他们就越聪明,但他们收集的信息越多,需要的力量就越大。包括 OpenAI 的 ChatGPT 在内的 AI 模型需要大量电力,这可能导致到 2030 年,AI 数据中心将消耗美国 20% 至 25% 的电力需求,相比今天的 4% 大幅增加。他特别强调,类似 ChatGPT 这样的大语言模型耗电非常严重,这些模型需要“永不满足”的电力才能有效运行。据IT之家此前报道,ChatGPT 每天需要处理超过
感谢当地时间周二,Arm 公司 CEO 雷内・哈斯(Rene Haas)发出了严厉的警告,他表示人工智能收集的信息越多,他们就越聪明,但他们收集的信息越多,需要的力量就越大。包括 OpenAI 的 ChatGPT 在内的 AI 模型需要大量电力,这可能导致到 2030 年,AI 数据中心将消耗美国 20% 至 25% 的电力需求,相比今天的 4% 大幅增加。

他特别强调,类似 ChatGPT 这样的大语言模型耗电非常严重,这些模型需要“永不满足”的电力才能有效运行。据IT之家此前报道,ChatGPT 每天需要处理超过 2 亿次请求,其电量消耗高达每天 50 万千瓦时。相比之下,美国普通家庭每天的平均用电量仅为 29 千瓦时,这意味着 ChatGPT 的日耗电量是普通家庭的 1.7 万倍以上。

Arm 现在正着眼于降低人工智能技术的功耗,随着电力需求的惊人增长,哈斯强调了在没有更高效的能源解决方案的情况下推进 AI 研究的挑战。

国际能源机构(IEA)在《2024 电力》报告中强调了这个问题,全球 AI 数据中心的耗电量将是 2022 年的十倍,并指出部分原因在于 ChatGPT 这样的大语言模型所需的电力,远高于谷歌等传统搜索引擎。

荷兰中央银行数据科学家 Alex de Vries 在一份发表于可持续能源期刊《焦耳》上的论文中计算得出,如果谷歌将生成式人工智能技术应用于所有搜索,其每年将消耗约 290 亿千瓦时电量,这相当于肯尼亚、危地马拉和克罗地亚一年的总发电量。

相关资讯

朗新科技首发AI能源大模型,电力交易将实现智能化

在近期举行的第三届链博会上,朗新科技集团向全球发布了其自主研发的 “朗新九功 AI 能源大模型”,这一重磅产品引发了行业内的广泛关注。 朗新科技表示,该模型结合了 “时序预测” 和 “AI 智能体” 两大核心技术,展现出强大的智能化潜力。 首先,“时序预测” 引擎依托海量的高质量预训练数据,达到了千亿级别的规模。
7/18/2025 10:12:05 AM
AI在线

美国得州电力需求飙升,2030 年数据中心用电预计需 30 座核电站才能满足

“数据中心正在影响 Ercot 系统的可靠性。过去,大型工业用电负荷从未真正威胁到电网的稳定性,但现在,我们正进入这样的时代。”
3/1/2025 3:18:39 PM
清源

马斯克的“世界最强大 AI 数据中心”目前由 14 台移动发电机供电,引环保担忧

埃隆・马斯克的孟菲斯超级计算集群(Memphis Supercluster)已上线,据马斯克介绍称,该集群在单个 RDMA fabric 上使用 10 万张液冷 H100,是“世界上最强大的 AI 训练集群”。如此庞大的算力自然需要惊人的电力供应,每个 H100 GPU 至少消耗 700 瓦电力,这意味着整个数据中心同时运行需要超过 70 兆瓦的电力,这还不包括其他服务器、网络和冷却设备的耗电量。令人惊讶的是,由于与当地电网的供电协议尚未敲定,马斯克目前使用 14 台大型移动发电机为这个巨型设施供电。AI 和半导体
7/24/2024 8:13:09 PM
远洋
  • 1