凭借发布的新品,AMD正式向英伟达的AI芯片王者地位发起挑战。
美东时间6月13日周二,AMD举行了新品发布会,其中最重磅的新品当属性用于训练大模型的ADM最先进GPU Instinct MI300。
(资料图片)
AMD CEO苏姿丰介绍,生成式AI和大语言模型(LLM)需要电脑的算力和内存大幅提高。她预计,今年,数据中心AI 加速器的市场将达到300亿美元左右,到2027 年将超过1500 亿美元,复合年增长率超过 50%。
苏姿丰演示介绍,AMD的Instinct MI300A号称全球首款针对AI和高性能计算(HPC)的加速处理器(APU)加速器。在13个小芯片中遍布1460亿个晶体管。
它采用CDNA 3 GPU架构和24个Zen 4 CPU内核,配置128GB的HBM3内存。相比前代MI250,MI300的性能提高八倍,效率提高五倍。AMD在发布会稍早介绍,新的Zen 4c内核比标准的Zen 4内核密度更高,比标准Zen 4的内核小35%,同时保持100%的软件兼容性。
AMD推出一款GPU专用的MI300,即MI300X,该芯片是针对LLM的优化版,拥有192GB的HBM3内存、5.2TB/秒的带宽和 896GB/秒的Infinity Fabric 带宽。AMD将1530亿个晶体管集成在共12个5纳米的小芯片中。
AMD称,MI300X提供的HBM密度最高是英伟达AI芯片H100的2.4倍,其HBM带宽最高是H100的1.6倍。这意味着,AMD的芯片可以运行比英伟达芯片更大的模型。
苏姿丰介绍,MI300X可以支持400亿个参数的Hugging Face AI 模型运行,并演示了让这个LLM写一首关于旧金山的诗。这是全球首次在单个GPU上运行这么大的模型。单个MI300X可以运行一个参数多达800亿的模型。
LLM需要的GPU更少,给开发者带来的直接好处就是,可以节约成本。
AMD还发布了AMD Instinct 平台,它拥有八个MI300X,采用行业标准OCP设计,提供总计1.5TB 的HBM3 内存。
苏姿丰称,适用于CPU和GPU的版本MI300A现在就已出样,MI300X和八个GPU的Instinct 平台将在今年第三季度出样,第四季度正式推出。
亚马逊、微软、Meta已经或将要运用AMD新品
除了AI芯片,AMD此次发布会还介绍了第四代EPYC(霄龙)处理器,特别是在全球可用的云实例方面的进展。
AMD第四代EPYC(霄龙)在云工作负载的性能是英特尔竞品处理器的1.8倍,在企业工作负载中的处理速度是英特尔竞品的1.9倍。
AMD称,第四代EPYC(霄龙)启用新的Zen 4c内核,比英特尔Xeon 8490H的效率高1.9倍。由于绝大多数AI在CPU上运行,AMD在CPU AI领域具有绝对的领先优势。
亚马逊周二宣布,在用AWS Nitro和第四代EPYC 处理器打造新的实例。亚马逊云的EC2 M7a实例现已提供预览版,性能比M6a实例高50%。
AMD也将在内部工作中运用EC2 M7a实例,包括芯片设计的EDA软件。AMD还宣布,今年7月,甲骨文将推出Genoa E5实例。
AMD发布的EPYC Bergamo处理器是业界首款x86原生CPU,有128个内核,每个插槽256个线程。这意味着一个普通的2U 4 节点平台将有 2048 个线程。
Bergamo比前代Milan的性能高2.5倍,现在就可以向AMD的云客户发货。
Meta的公司代表介绍,Meta在基础设施中使用EPYC处理器。Meta也对基于AMD的处理器设计开源。Meta方面称,计划为其基础设施使用云处理器Bergamo,还要将Bergamo用于其存储平台。
AMD同时推出本周二上市的CPU Genoa-X。它将增加超过1GB 的96核L3缓存。它共有四个SKU,16到 96 个内核。因为SP5插槽兼容,所以它可以与现有的EPYC 平台一起使用。
微软的公司代表和AMD一道展示了微软云Azure HPC的性能,在EPYC处理器的帮助下,Azure四年内的性能提升四倍。
Azure宣布,搭载Genoa-X的HBv4和HX系列实例、以及新的HBv3实例全面上市。Azure还称,性能最高可较市面基准提升5.7倍。
AMD此前通过收购Pensando获得DPU技术。此次AMD称,其P4 DPU架构是世界上最智能的DPU,它能减少数据中心的网络开销,并提高了服务器的可管理性。AMD的Pensando SmartNICs是这种新数据中心架构不可或缺的组成部分。
AMD还提到有自己的AI芯片软件,名为ROCm。AMD总裁Victor Peng称,在构建强大的软件堆栈方面,AMD取得了真正的巨大进步,ROCm软件栈可与模型、库、框架和工具的开放生态系统配合使用。
编辑/jayden