今天小编分享的互联网经验:挑战英伟达地位,AMD发布MI 300系列两颗AI芯片,欢迎阅读。
作者丨邱晓芬
编辑丨苏建勋
2023 年以来,AI 芯片是 AMD 虎视眈眈的领網域。在今年年初 CES 上发布过 MI300 系列之后,美国时间 12 月 6 日,AMD 在其举办的 Advancing AI 活动上,又发布了这一系列两款新芯片—— MI 300X 和 MI 300A。
MI 300X 芯片是适用于各种各样生成式 AI 应用场景的芯片;MI 300A 则更适用于用在 HPC 应用和数据中心上。
在硬體参数配置上,两颗芯片有共性也有差异。
两颗芯片都采用采用了一种名为 "3.5D 封装 " 的技术来生产,并且也都是基于 AMD 第四代的 Infinity 架构打造。
在内存方面,两颗芯片都采用了现下大热的 HBM 3 设计,但是 MI 300A 用的是 128GB 的 HBM 3 设计,MI 300X 用的是内存更大的 192GB HBM 3 设计;
在计算单元方面,MI 300X 搭载了 304 个 CDNA 3 计算单元,每个计算单元中还有 34 个计算部門。而 MI 300A 的计算单元更少,只有 228 个。
在发布会上,AMD 几乎全程对标英伟达 H100 芯片。从官方披露的数据来看,MI 300X 的内存配置是英伟达 H100 的 2.4 倍,峰值存储带宽也是英伟达的 2.4 倍,另外, FP8、FP16、TF32 算力是英伟达 H00 的 1.3 倍。
軟體是 AI 芯片生态中不可获缺的一环,在此前的发布会上,AMD 曾经介绍过他们的 AI 軟體套件 ROCm ——和英伟达专有的 CUDA 不同,这是一个开放开源的平台。
不过短短几个月时间,AMD 就推出了最新版本的 ROCm 6,主要是大模型做了深度优化。
比如,当企业使用 MI300X 平台、搭配 ROCm 6,相比于上一代的配置(MI250 芯片 +ROCm 5),跑 70 亿参数量的 Llama 2 的延迟时间少了 8 倍。若跑 130 亿参数量的 Llama 2,综合表现甚至还是英伟达 H100 的 1.2 倍。
产品有了, AMD 此次也公布了商业化的进展。
AMD 方面宣布,OpenAl 也宣布增加了 AMD Instinct 系列 AI 加速器的使用。微软、Meta、Oracle 三家大厂,对于 MI 300X 芯片也兴趣浓厚。
其中,微软提到讲采用这可芯片来为 Azure ND MI 300X v5 VM 赋能;Meta 则计划在其数据中心部署 MI 300X 和 ROCm 6;Oracle 则将提供基于 MI 300X 加速器的裸金属计算方案,并基于此生成式 AI 服务。
另外,惠普、戴尔、联想等数家数据中心基础设施提供商,也宣布将计划在其产品集成 MI300。
在发布会上,AMD 董事长苏姿丰表示,预计到 2027 年,用于数据中心的人工智能芯片的整体市场规模将达到 4000 亿美元,年复合增长率将达到 70%。
此前,在 AMD 的财报会议上,苏姿丰对于这一系列寄予厚望,她曾表示, 随着数据中心 GPU 的增长, MI300 系列可能会成为 "AMD 历史上销售额突破 10 亿美元最快的产品。