AI在线 AI在线

超越英伟达B200!AMD最强AI芯:1.6倍大内存、大模型推理快30%,奥特曼都来站台

AMD大招逆袭,最强AI芯片号称大模型推理比英伟达B200快30%! CEO苏姿丰与OpenAI奥特曼共同登台发布。 这次AMD发布了MI350X和MI355X两款GPU,采用3nm工艺,包含1850亿晶体管,配备HBM3E内存。

AMD大招逆袭,最强AI芯片号称大模型推理比英伟达B200快30%!

CEO苏姿丰与OpenAI奥特曼共同登台发布。

这次AMD发布了MI350X和MI355X两款GPU,采用3nm工艺,包含1850亿晶体管,配备HBM3E内存。

相比前代的MI300X,MI350系列的算力提升了4倍,推理速度快了35倍。

图片

MI350系列也是叫板英伟达B200,内存是B200的1.6倍,训练推理速度相当或更快。

并且由于芯片功耗低于英伟达,在MI355X上每花费1美元,可以比B200多跑40%的tokens。

图片

同时,AMD还预告明年将会发MI400系列,并且奥特曼也来给苏妈站台,透露OpenAI参与了MI400系列的联合研发。

图片

大模型运行更快,MI350系列叫板英伟达

MI350X和MI355X在核心设计上是相同的,二者的区别是针对不同的散热方式设计,前者采用风冷,后者则和B200一样采用了更先进的液冷。

它们都基于第四代Instinct架构(CDNA 4),并配备288GB的HBM3E内存和8TB每秒的内存带宽,这一容量是英伟达GB200和B200 GPU的1.6倍。

功耗上,风冷的MI350X最高TBP为1000W,液冷的MI355X则达到了1400W,更高的TBP之下,MI355X的性能也高于同架构的MI350X。

图片

在精度较高的FP64上,MI350X和MI355X的算力分别是72和78.6TFLOPs,据介绍是英伟达的2倍。

而在低精度格式(例如FP16、FP8和FP4)上,MI350系列的性能则与英伟达相当或略胜一筹。

值得注意的是,MI350系列上,FP6性能的运算可以以FP4的速率运行,这被AMD认为是一个差异化特征。

图片

搭配AMD第五代EPYC(Turin)芯片,8个GPU通过153.6 GB/s的双向Infinity Fabric链路进行通信,可以组成一个节点。

图片

这些节点还将继续组合成风冷或液冷机柜,形成最高128GPU的集群,FP8算力达到1.3EFLOPs。

图片

除了列性能数据,AMD还直观地介绍了MI350系列运行大模型应用的性能,并分别与自家前代产品和英伟达进行了对比。

相比于MI300X(FP8),MI355X(FP4)运行Llama 3.1 405B的速度达到了35倍。

图片

运行DeepSeek R1、Llama 4 Maverick和Llama 3.3 70B的推理性能也均达到了3倍。

图片

和英伟达的B200或GB200相比,MI355X也能达到相当或更高的性能(均为FP4精度,使用不同框架),DeepSeek R1和Llama 3.1 405B的性能分别比B200高20%和30%。

图片

训练和微调上,也是相比MI300X大幅提升,并拥有和B200/GB200相当或更高的性能。

图片

成本方面,MI350系列也拥有较高的性能密度,同样花费1美元,在MI355X上可以比B200上多处理40%的token。

图片

AMD表示,MI350系列在本月初已经批量出货,云服务商正在进行安装。

微软、Meta、xAI等正在使用AMD产品的AI大厂,也均对MI350表示了期待。

另外,为了搭配MI350系列,AMD还发布了全新的ROCm 7软件栈,相比ROCm 6带来了3.5倍的推理性能提升和3倍的训练性能提升,同时引入了分布式推理支持。

ROCm 7还与VLM和SGLang等开源推理框架深度集成,并且支持超过180万个Hugging Face模型的开箱即用。

图片

AMD公布路线图,MI400明年亮相

发布MI350系列的同时,苏妈也公布了AMD在AI芯片上新的路线图。

根据这张路线图,AMD的下一代GPU,也就是MI400系列,将于明年亮相。

图片

MI400系列由AMD和OpenAI联合研发,OpenAI为MI400系列的训练和推理需求提供了重要反馈。

奥特曼也来到现场为AMD站台,表示MI400非常适合推理,并且也可能是训练的绝佳选择。

图片

MI400系列将采用下一代CDNA架构,预计速度比MI300系列快10倍,FP4运行速度将达到40PFLOPs。

还将配备高达432GB的HBM4内存和19.6TB/s的内存带宽,这个数字让现场的奥特曼也为之一震。

图片

搭配2nm的Venice CPU和Vulcano网卡,MI400可以组装成完整的Helios AI机架。

Venice拥有多达256个Zen6高性能核心,计算性能预计比当前的Turin CPU提升70%。

图片

代号为“Vulcano”的下一代扩展AI网卡,支持PCIe和UAL接口,并提供800GB/s的线速吞吐量。

图片

整体上,Helios机架将连接多达72个GPU,拥有260TB/s的扩展带宽。

图片

另外,AMD还计划到2027年推出MI500系列GPU和Verono CPU,将“进一步突破性能、效率和可扩展性的极限”。

图片

那么你认为,AMD这次Yes了吗?

发布会回放:https://www.youtube.com/watch?v=5dmFa9iXPWI

相关资讯

突发!特朗普禁止英伟达,向DeepSeek等提供AI芯片

华尔街日报消息,特朗普政府已禁止在无许可证的情况下,向中国出售H20等AI芯片。 未来的相关销售也将需要许可证,这是特朗普政府首次对半导体海外销售实施重大限制,强化了拜登政府此前制定的规则。 由于该政策的实施,英伟达股票遭遇重创下跌了5%左右,并且季度营收会因无法按原计划销售损失55亿美元。
4/18/2025 9:43:38 AM
AIGC开放社区

Switch 2芯片细节曝光!英伟达专门定制支持DLSS,网友:掌机模式相当于PS4

Switch 2处理器,细节被实锤! 数毛社(Digital Foundry)消息,已经确定Switch 2采用的是英伟达真·定制版芯片,包含8核CPU和12GB LPDDR5X内存。 GPU则基于Ampere架构,和30系显卡同款,拥有1536个CUDA核心,支持DLSS。
5/15/2025 2:40:24 PM

100亿H20没卖出,英伟达狂赚1000多亿破纪录!

英伟达狂赚不止,再次交出了亮眼成绩单! 今早,英伟达2026财年第一季度财报公布,再次破纪录:营收达441亿美元,较上一季度增长12%,较去年同期增长69%数据中心收入达391亿美元,较上一季度增长10%,较去年同期增长73%数据中心占据收入的大头,其次为游戏。 受新出口许可要求影响,英伟达因H20库存积压及采购义务,在本季度计提了45亿美元费用。
5/30/2025 8:40:00 AM
  • 1