AI在线 AI在线

谷歌 TPU 发布引发 AI 计算市场价格战,OpenAI 节省 30% 成本

根据最新报道,谷歌正从内部芯片用户转变为芯片零售商,直接挑战英伟达的市场主导地位。 谷歌最新推出的 TPUv7“铁木” 处理器的存在,已经对 AI 计算能力的价格产生了影响,导致市场价格下滑。 过去,谷歌的张量处理单元(TPUs)几乎只用于自身的 AI 模型,但如今的策略已经改变。

根据最新报道,谷歌正从内部芯片用户转变为芯片零售商,直接挑战英伟达的市场主导地位。谷歌最新推出的 TPUv7“铁木” 处理器的存在,已经对 AI 计算能力的价格产生了影响,导致市场价格下滑。

过去,谷歌的张量处理单元(TPUs)几乎只用于自身的 AI 模型,但如今的策略已经改变。分析机构 SemiAnalysis 的研究显示,谷歌正积极向第三方销售其 TPU 芯片,力图在市场上与英伟达展开竞争。新客户之一的 Anthropic,已签署了约一百万个 TPU 的协议,涉及直接硬件购买和通过谷歌云平台租赁的模式。

OpenAI

图源备注:图片由AI生成,图片授权服务商Midjourney

这种竞争效应也在市场中显现。SemiAnalysis 的报告指出,OpenAI 通过威胁转向 TPU 或其他替代方案,成功谈判获得了其英伟达硬件的约30% 折扣。分析师戏谑道:“购买 TPU 越多,节省的英伟达 GPU 成本就越多。”

谷歌的 TPU 证明其可以支撑顶级 AI 模型的训练。最近推出的两个强大 AI 模型,谷歌的 Gemini3Pro 和 Anthropic 的 Claude4.5Opus,主要依赖于谷歌的 TPU 和亚马逊的 Trainium 芯片。TPUv7在理论计算能力和内存带宽方面几乎与英伟达的 Blackwell 系列相当,但在成本方面更具优势。

根据 SemiAnalysis 的模型,TPU 的每个芯片拥有大约44% 的总拥有成本(TCO)优势,相较于英伟达 GB200系统即便是外部客户如 Anthropic 也能享受30% 至50% 的低成本。谷歌的系统能够将9216个芯片连接在一起,形成一个密集网络,相较于传统的英伟达系统,这种架构更便于分布式 AI 训练。

为了促进 TPU 的推广,谷歌正在开发与流行的 PyTorch 框架的原生支持,并与推理库如 vLLM 进行整合,旨在消除开发者在迁移到 TPU 时的阻碍。

然而,面对谷歌的挑战,英伟达正准备进行技术反击,其下一代 “Vera Rubin” 芯片预计将在2026或2027年推出。与此同时,谷歌的 TPUv8计划面临延迟,但依然希望通过与 Broadcom 和 MediaTek 的合作推出新版本,来保持其市场竞争力。

划重点:

💡 谷歌从内部芯片用户转型为零售商,推出 TPUv7挑战英伟达市场主导地位。  

📉 OpenAI 通过转向 TPU 谈判,成功获得约30% 成本折扣。  

⚙️ 谷歌积极推进 TPU 的开发与推广,寻求突破软件适配障碍。

相关资讯

预训练“卡壳”:SemiAnalysis 爆料 OpenAI 连续两年半未跑通新前沿大模型

据 SemiAnalysis 最新报告,自2024年5月 GPT-4o 发布以来,OpenAI 尚未完成任何一次“面向下一代前沿模型”的大规模预训练部署,其顶尖团队多次尝试扩展参数与数据规模,均因收敛困难或性能倒挂而中途叫停。 这导致被外界寄予厚望的 GPT-5系列实质上仍是 GPT-4o 的优化变体,未能实现架构级突破。 与此同时,谷歌 TPUv7已在 Gemini3等模型上完成大规模预训练验证,同等算力集群的总体拥有成本(TCO)比英伟达方案低约30%。
12/1/2025 10:46:30 AM
AI在线

消息称 DeepSeek-R2 AI 模型开发进程因美国当局英伟达 H20 芯片出口限制而延迟

由于美国当局对英伟达H20芯片的出口限制,DeepSeek R2 AI模型的开发进程被迫延迟。这不仅影响了新模型的研发,也对现有R1模型的实际部署造成困扰。#AI芯片# #DeepSeek#
6/27/2025 8:09:47 AM
漾仔

Adobe AI代理再扩军:新增产品支持与全球上线数据洞察代理

Adobe持续推进其AI代理生态扩展,正式发布“产品支持代理”,旨在简化Adobe Experience Platform中的故障排除流程,并优化客户体验管理。 同时,Adobe宣布其“数据洞察代理”现已在全球范围内上线。 新发布的“产品支持代理”由Adobe Experience Platform Agent Orchestrator提供技术支持,能够在AI Assistant的对话界面中,为用户提供即时的操作指导和支持案例创建流程。
6/6/2025 11:00:55 AM
AI在线