AMD MI400与MI500系列加速器详解,AI芯片竞争进入白热化
面对英伟达在AI加速器市场的强势地位,AMD正通过一年一代的快速迭代,试图用更精细的产品策略撼动竞争格局。
在2025年财务分析师日上,AMD详细披露了Instinct MI400及MI500系列AI加速器的技术细节与发布计划。
基于CDNA 5架构的MI400系列计划于2026年推出,其FP4精度算力高达40 PFLOPs,内存容量提升至432GB HBM4。
而MI500系列则定档2027年,AMD宣称将逐步转向“年度发布新品”的节奏,以缩短与竞争对手的市场差距。
01 CDNA 5架构:MI400系列的技术跨越
AMD Instinct MI400系列被视为公司与NVIDIA竞争的关键产品,其核心是基于全新的CDNA 5架构。
这一架构在内存系统和封装技术上都实现了显著突破。
MI400系列将内存从MI350系列的HBM3e升级至HBM4,容量从288GB提升至432GB,增幅达50%。
总带宽更是从8TB/s大幅增至19.6TB/s,实现了近145%的提升。
在算力方面,MI400系列的FP4精度算力可达40 PFLOPs,FP8精度算力则达20 PFLOPs,约为当前MI350系列性能的两倍。
AMD特别强调,在某些应用场景中,MI400的极限性能提升幅度甚至可达惊人的10倍。
封装技术也从CoWoS-S升级至更先进的CoWoS-L方案,为芯片内部计算单元与I/O接口间的通讯提供了更高效率。
02 产品策略转变:区分AI与HPC市场
与之前系列不同,MI400系列采取了更精细化的市场定位,首次针对不同工作负载推出专用型号。
Instinct MI455X面向大规模AI训练与推理场景,专注于低精度AI计算(FP4、FP8和BF16)。
而Instinct MI430X则针对高性能计算与主权AI需求设计,具备基于硬件的FP64运算功能,并支持CPU+GPU的混合计算模式。
这种专业化分工使AMD能够在芯片空间中最大化相应数据格式的计算资源。
MI430X保留了与MI455X相同的HBM4内存子系统,确保了即使在HPC场景下也能获得优异的内存性能。
03 互连技术升级:拥抱开放标准
MI400系列不仅是计算架构的升级,还在互连技术上迈出了重要一步。
该系列将同时支持Infinity Fabric和UALink互连,这将是AMD首批支持UALink的AI和HPC GPU。
UALink 1.0规范支持每通道200 GT/s的双向数据速率,四通道链路在发送和接收方向的速度最高可达800 GT/s。
单个UALink 1.0系统可支持连接高达1024个AI加速器,为大规模计算集群提供了坚实基础。
AMD还将推出代号“Vulcano”的下一代Pensando网卡,支持PCIe 6.0,带宽翻番至800G。
这些互连升级共同构成了AMD机架级解决方案的基础,直接对标NVIDIA的同类产品。
04 系统级解决方案:Helios AI机架
AMD深知,与现代AI竞争不仅仅是芯片之间的较量,更是系统级解决方案的对抗。
因此,围绕MI400系列,AMD设计了名为 “Helios”的AI机架参考方案。
Helios AI机架可容纳最多72块MI400系列GPU,对标NVIDIA NL72,总带宽达260TB/s。
其HBM4内存总容量高达31TB,总带宽1.4PB/s,AMD宣称这一数字超过竞品足足一半。
在整体性能上,这一系统可提供FP8 1.4EFlops、FP4 2.9EFlops的算力,与竞争对手的产品处于同一水平线。
这一系统级方案与MI400加速器、Pensando Vulcano网卡以及代号“Venice”的下一代EPYC处理器共同组成了AMD2026年的AI加速平台。
05 MI500系列前瞻:2027年的再进化
在MI400之后,AMD已规划了2027年推出MI500系列,体现了公司年度更新产品线的决心。
据泄露信息,MI500系列将采用 “超级计算舱”形式组织计算资源。
每个计算节点设计采用1颗Verano架构CPU搭配4块MI500加速器,最高支持64个节点规模。
这意味着整舱可统筹64颗CPU和256个逻辑GPU,为人工智能与高性能计算负载提供强大算力。
在网络架构上,MI500 UAL256超级计算舱将计算资源分布在两个32节点的机柜中,通过中央网络机架互联。
该中央机架容纳18个网络交换托盘,每个托盘集成4颗名为“Vulcano”的交换芯片,采用台积电3纳米制程,每颗可提供102.4T的交换能力。
从AMD公布的技术细节来看,其与NVIDIA的竞争已从单纯的产品性能对比,扩展到系统级解决方案、互连技术和软件生态的全方位竞赛。
MI400系列的432GB HBM4内存和19.6TB/s带宽令人印象深刻。
但真正值得关注的是AMD提出的 “年度更新周期”。
如果这一节奏能够实现,意味着数据中心AI加速器市场可能进入与当前消费级GPU类似的快速迭代周期。
这对技术追赶者和整个行业都将产生深远影响。
|
|