AI在线 AI在线

谷歌发布第七代 TPU Ironwood:首度专为 AI 推理设计,能效达 TPU v6e 两倍

Ironwood 搭载 292GB HBM 内存,峰值 FP8 AI 算力可达到 4614 TFLOP,支持扩展到 9216 芯片。

谷歌今日在 Google Cloud Next 2025 大会上发布了其第七代 TPU 张量处理器 "Ironwood"。这是其 TPU 家族中首款专为 AI 推理而设计的型号,拥有迄今为止最强大的功能、能力和能效。

谷歌发布第七代 TPU Ironwood:首度专为 AI 推理设计,能效达 TPU v6e 两倍

谷歌表示 "Ironwood" 代表了 AI 发展和推动其进步的基础设施的重大转变:从传统响应式 AI 模型转向提供主动生成的见解和解释的模型;AI 智能体(AI在线注:Agent)将主动去检索和生成数据,以协作提供见解和答案,而不仅仅是数据。

谷歌发布第七代 TPU Ironwood:首度专为 AI 推理设计,能效达 TPU v6e 两倍

在芯片参数方面,每颗 "Ironwood" TPU 搭载了共计 192GB 的 7.2Tbps HBM 内存,峰值 FP8 AI 算力可达到 4614 TFLOP,支持 1.2Tbps 带宽的 ICI 芯片间互连,能效则达到了 TPU v6e "Trillium" 的两倍。

对于 Google Cloud 云客户,谷歌提供两种不同规模的 "Ironwood" TPU Pod 配置:256 芯片和 9216 芯片,后者的整体 AI 算力达到了惊人的 42.5 Exaflops

相关资讯

全面突围,谷歌昨晚更新了一大波大模型产品

这次,谷歌要凭「量」打败其他竞争对手。当地时间本周二,谷歌在 Google’s Cloud Next 2024 上发布了一系列 AI 相关的模型更新和产品,包括 Gemini 1.5 Pro 首次提供了本地音频(语音)理解功能、代码生成新模型 CodeGemma、首款自研 Arm 处理器 Axion 等等。Gemini 1.5 ProGemini 1.5 Pro 是 Google 功能最强大的生成式 AI 模型,现已在 Google 以企业为中心的 AI 开发平台 Vertex AI 上提供公共预览版。这是谷歌面向
4/10/2024 2:55:00 PM
机器之心

OpenAI:正对谷歌 TPU 进行早期测试,暂无大规模部署计划

AI 硬件从实验室测试到大规模商用部署间仍有一段路要走。OpenAI 也在开发自研 AI ASIC。
7/1/2025 10:27:05 AM
溯波(实习)

​谷歌的 TPU 业务或将冲击 9000 亿美元市场,挑战英伟达

随着人工智能技术的不断发展,谷歌正加大对 AI 硬件市场的布局,特别是其自家研发的张量处理单元(TPU)。 近期,谷歌开始与一些小型云服务提供商,如 Fluidstack、Crusoe 和 CoreWeave 合作,推广其 TPU 产品。 这一举动意味着谷歌希望在英伟达的强大市场地位上开辟出一片新的天地。
9/9/2025 4:56:50 PM
AI在线
  • 1