AMD推出MI300X:拥有1530亿晶体管,可运行800亿参数模型
6月14日消息,AMD在当地时间14日展示了其即将推出的GPU专用的MI300X AI芯片(其称为加速器),该加速器可以加快ChatGPT和其他聊天机器人使用的生成式人工智能的处理速度,并可以使用高达192GB的内存,而英伟达的H100芯片只支持120GB内存,英伟达在这一新兴市场的主导地位或将受到挑战。AMD未公布其AI芯片的价格。
AMD 14日展示了用于训练大模型的 GPU Instinct MI300A,号称是全球首款针对AI和高性能计算(HPC)的加速处理器(APU)。MI300A在13个小芯片中遍布1460亿个晶体管。它采用CDNA 3 GPU架构和24个Zen 4 CPU内核,相比前代MI250,MI300的性能提高八倍,效率提高五倍。
新的Zen 4c内核比标准的Zen 4内核密度更高,比标准Zen 4的内核小35%,同时保持100%的软件兼容性。
而MI300X是针对大语言模型LLM的优化版,拥有192GB的HBM3内存、5.2TB/秒的带宽和896GB/秒的Infinity Fabric带宽。AMD将1530亿个晶体管集成在共12个5纳米的小芯片中。
AMD称,MI300X提供的HBM密度最高是英伟达AI芯片H100的2.4倍,其HBM带宽最高是H100的1.6倍。这意味着,AMD的芯片可以运行比英伟达芯片更大的模型。单个MI300X可以运行一个参数多达800亿的模型。
AMD还发布了AMD Instinct平台,它拥有八个MI300X,采用行业标准OCP设计,提供总计1.5TB的HBM3内存。苏姿丰称,适用于CPU和GPU的版本MI300A现在就已出样,MI300X和八个GPU的Instinct平台将在第三季度出样,第四季度正式推出。
AMD CEO苏姿丰表示,数据中心人工智能加速器的潜在市场总额将从2022年的300亿美元增长到2027年的1500亿美元以上。但市场对此消息反应不佳。AMD股价在活动过程中显著走低,收跌3.61%,而同行英伟达则收涨3.90%,市值首次收于1万亿美元关口上方。