今天小編分享的互聯網經驗:挑戰英偉達地位,AMD發布MI 300系列兩顆AI芯片,歡迎閲讀。
作者丨邱曉芬
編輯丨蘇建勳
2023 年以來,AI 芯片是 AMD 虎視眈眈的領網域。在今年年初 CES 上發布過 MI300 系列之後,美國時間 12 月 6 日,AMD 在其舉辦的 Advancing AI 活動上,又發布了這一系列兩款新芯片—— MI 300X 和 MI 300A。
MI 300X 芯片是适用于各種各樣生成式 AI 應用場景的芯片;MI 300A 則更适用于用在 HPC 應用和數據中心上。
在硬體參數配置上,兩顆芯片有共性也有差異。
兩顆芯片都采用采用了一種名為 "3.5D 封裝 " 的技術來生產,并且也都是基于 AMD 第四代的 Infinity 架構打造。
在内存方面,兩顆芯片都采用了現下大熱的 HBM 3 設計,但是 MI 300A 用的是 128GB 的 HBM 3 設計,MI 300X 用的是内存更大的 192GB HBM 3 設計;
在計算單元方面,MI 300X 搭載了 304 個 CDNA 3 計算單元,每個計算單元中還有 34 個計算部門。而 MI 300A 的計算單元更少,只有 228 個。
在發布會上,AMD 幾乎全程對标英偉達 H100 芯片。從官方披露的數據來看,MI 300X 的内存配置是英偉達 H100 的 2.4 倍,峰值存儲帶寬也是英偉達的 2.4 倍,另外, FP8、FP16、TF32 算力是英偉達 H00 的 1.3 倍。
軟體是 AI 芯片生态中不可獲缺的一環,在此前的發布會上,AMD 曾經介紹過他們的 AI 軟體套件 ROCm ——和英偉達專有的 CUDA 不同,這是一個開放開源的平台。
不過短短幾個月時間,AMD 就推出了最新版本的 ROCm 6,主要是大模型做了深度優化。
比如,當企業使用 MI300X 平台、搭配 ROCm 6,相比于上一代的配置(MI250 芯片 +ROCm 5),跑 70 億參數量的 Llama 2 的延遲時間少了 8 倍。若跑 130 億參數量的 Llama 2,綜合表現甚至還是英偉達 H100 的 1.2 倍。
產品有了, AMD 此次也公布了商業化的進展。
AMD 方面宣布,OpenAl 也宣布增加了 AMD Instinct 系列 AI 加速器的使用。微軟、Meta、Oracle 三家大廠,對于 MI 300X 芯片也興趣濃厚。
其中,微軟提到講采用這可芯片來為 Azure ND MI 300X v5 VM 賦能;Meta 則計劃在其數據中心部署 MI 300X 和 ROCm 6;Oracle 則将提供基于 MI 300X 加速器的裸金屬計算方案,并基于此生成式 AI 服務。
另外,惠普、戴爾、聯想等數家數據中心基礎設施提供商,也宣布将計劃在其產品集成 MI300。
在發布會上,AMD 董事長蘇姿豐表示,預計到 2027 年,用于數據中心的人工智能芯片的整體市場規模将達到 4000 億美元,年復合增長率将達到 70%。
此前,在 AMD 的财報會議上,蘇姿豐對于這一系列寄予厚望,她曾表示, 随着數據中心 GPU 的增長, MI300 系列可能會成為 "AMD 歷史上銷售額突破 10 億美元最快的產品。