AI在线 AI在线

​OpenAI 澄清与谷歌芯片传闻:并无大规模合作计划

美国人工智能初创公司 OpenAI 近日对外发布声明,否认了媒体有关其计划采用谷歌自研芯片的报道。 这一声明是在媒体两天前的相关消息引发广泛关注后发布的。 OpenAI 的一位发言人在周日表示,尽管该公司正在对谷歌的张量处理单元(TPU)进行早期测试,但目前并没有大规模使用这些芯片的打算。

美国人工智能初创公司 OpenAI 近日对外发布声明,否认了媒体有关其计划采用谷歌自研芯片的报道。这一声明是在媒体两天前的相关消息引发广泛关注后发布的。OpenAI 的一位发言人在周日表示,尽管该公司正在对谷歌的张量处理单元(TPU)进行早期测试,但目前并没有大规模使用这些芯片的打算。

芯片 AI绘图 (1)

图源备注:图片由AI生成,图片授权服务商Midjourney

在人工智能领域,实验室测试各种芯片的情况十分普遍,但要实现新硬件的大规模应用通常需要较长时间。此外,这也涉及到不同的架构和软件支持,难度不小。OpenAI 表示,目前正积极使用英伟达的图形处理器(GPU)和 AMD 的人工智能芯片,以满足日益增长的计算需求。

此外,OpenAI 也在研发自己的芯片,预计将在今年达到 “定型” 里程碑,届时这些芯片的设计将最终确定并投入生产。此前有报道称,OpenAI 已与谷歌云服务达成合作协议,以满足其不断增长的计算能力需求。这一合作被认为是人工智能领域两个主要竞争对手之间的一次意外联手。

尽管 OpenAI 在计算能力方面的主要来源将是由新兴云公司 CoreWeave 提供支持的 GPU 服务器,谷歌也在积极扩大其自研人工智能芯片(TPU)的外部可用性。TPU 芯片之前主要用于谷歌的内部项目,但现在也开始吸引包括苹果在内的其他科技巨头以及一些初创公司的关注,如 Anthropic 和 Safe Superintelligence,这些公司都是 OpenAI 的竞争对手。

OpenAI 的最新声明清晰地传达了其对合作传闻的立场,强调了公司在硬件使用上的多样化和自研的决心。随着人工智能技术的快速发展,OpenAI 显然正面临着来自各方的挑战与机遇。

划重点:

🌐 OpenAI 否认与谷歌自研芯片的合作计划,称目前并未进行大规模部署。  

🖥️ OpenAI 正在使用英伟达和 AMD 的芯片,并研发自有芯片以应对计算需求。  

☁️ 与谷歌云的合作虽被报道,但 OpenAI 主要计算能力来源是 CoreWeave 提供的 GPU 服务器。

相关资讯

马斯克首次披露 Grok 3 的训练成本:高达 20 万块英伟达 GPU

近日,马斯克在直播中正式推出了全新的聊天机器人 Grok3,并透露了该模型训练的惊人成本。 Grok3目前已面向 Premium 订阅用户开放,并在多个评测领域表现出色,甚至超过了市场上其他竞争对手,如 Gemini、DeepSeek 和 ChatGPT。 马斯克在直播中介绍,Grok3的训练过程中共计消耗了20万块英伟达 GPU,这一数字让人震惊。
2/18/2025 4:21:00 PM
AI在线

DeepSeek 开源周首日:发布大模型加速利器FlashMLA 解码性能飙升至3000GB/s

DeepSeek 开源周首日正式开源其最新技术成果FlashMLA,这是一款专为英伟达Hopper架构GPU打造的高效多层注意力(Multi-Layer Attention)解码内核。 该技术特别针对变长序列场景进行优化,可显著提升大模型推理性能。 FlashMLA的核心技术特性包括对BF16精度的全面支持,以及采用块大小为64的页式键值缓存(Paged KV Cache)系统,实现更精确的内存管理。
2/24/2025 10:18:00 AM
AI在线

Meta“挥刀”砍向650亿美元AI账单!自研芯片亮剑,誓要摆脱英伟达“卡脖子”?

社交媒体巨头Meta正面临着前所未有的AI基础设施成本压力,预计仅AI相关支出就将飙升至惊人的650亿美元,整体年度总支出更是可能高达1190亿美元!面对如此天文数字的账单,这家科技巨头终于坐不住了,毅然走上了自研AI芯片的道路,并已在这一领域取得了显著进展。 最新的报告显示,Meta即将启动小规模的自研芯片部署,这一举动预示着,Meta将逐步摆脱对英伟达及其昂贵GPU的依赖,以此来降低训练人工智能模型的巨额成本。 Meta 并非一时冲动才做出自研芯片的决定,实际上,他们曾一度搁置了这个项目,个中缘由或许与研发过程中的重重挑战有关。
3/12/2025 5:57:00 PM
AI在线
  • 1