电子工程专辑讯 近日,AMD 董事长兼首席执行官苏姿丰(Lisa Su)在2024 年台北国际电脑展上展示了 AMD Instinct 加速器系列不断增长的势头,公布了全新云端AI加速芯片路线图,更新后的路线图将从全新的AMD Instinct MI325X加速器开始,该产品将于2024年第四季度上市。她强调,MI325X 的计算速度比英伟达(NVIDIA)的 H200 快 30%。
AMD 公布了一个为期多年的、扩展的 AMD Instinct 加速器路线图,该路线图在人工智能性能和内存功能上将一年更新一次。AMD的“一年一更”则对标英伟达,来满足当下对 AI 应用需求的不断增长。
从AI加速芯片路线图显示,AMD将在今年推出Instinct MI325X,2025年推出MI350,2026年推出MI400。
据悉,AMD Instinct MI325X 是一款强大的云端 AI 加速芯片,据 苏姿丰介绍,AMD MI325X 在性能和带宽方面都超过了英伟达的 H200,是英伟达 H200 的两倍多;另一方面,MI325X的运算速度比H200快30%。MI325X 的关键特点如下:
架构是基于 CDNA3 架构;
内存具备 288GB HBM3E 高带宽内存(刷新版本,相较于 MI300X);
内存带宽达到 6TB/s;
在AI 性能提升上,MI325X 在内存大小、单服务器可运行模型参数规模等方面均超越了英伟达 H200,具体表现如下:
- 内存大小和单服务器可运行模型参数规模是英伟达 H200 的两倍。
- 内存带宽、理论 FP16 算力峰值、理论 FP8 峰值则是英伟达 H200 的 1.3 倍。
AMD CDNA 4 架构的 AMD Instinct MI350 系列预计将于 2025 年上市,与采用 AMD CDNA 3 架构的 AMD Instinct MI300 系列相比,人工智能推理性能最多可提升 35 倍。AMD Instinct MI400 系列基于 AMD CDNA “Next ”架构,预计将于 2026 年上市。
“AMD Instinct MI300X加速器继续受到微软Azure、Meta、戴尔科技、HPE、联想等众多合作伙伴和客户的青睐,这是AMD Instinct MI300X加速器卓越性能和价值主张的直接结果,”AMD公司数据中心加速计算副总裁Brad McCredie表示。“通过每年更新产品,我们坚持不懈地加快创新步伐,提供人工智能行业和客户所期待的领先功能和性能,推动数据中心人工智能训练和推理的下一步发展。”
随着 Nvidia 选择 SK 海力士作为其 HBM 供应链,以及 AMD 与三星电子结盟,AI 芯片的竞争线变得越来越清晰。
据BUSINESSKOREA报道称,三星电子证实将向 AMD 供应第五代 HBM(HBM3E)。同一天,AMD即将在今年第四季度发布的 AI GPU MI325X,采用的288 GB HBM3E,将由三星提供。
三星电子与 AMD 在 HBM 领域的合作依然稳固。去年,苏姿丰在美国旧金山举行的 ISSCC 2023 的主题演讲中透露,他们正在与三星电子合作开发 HBM-PIM(内存处理)。当时,苏姿丰强调了 PIM 技术的优势,称与传统内存处理相比,它可以将功耗降低 85% 以上。
随着三星电子与AMD的合作不断加深,AI半导体和HBM行业正在形成新的竞争格局。