今天小編分享的科學經驗:蘇媽戰老黃!官宣AMD大模型專用卡,對标英偉達H100,可跑更大模型,歡迎閱讀。
蘇媽發布最新 AMD 加速卡,直接宣戰英偉達!
沒錯,就在 AMD 推出最新加速卡Instinct MI300X的現場,PPT 上專門打出一行字——
大語言模型專用。
AMD 表示,MI300X 的高帶寬内存(HBM)密度,最高可達英偉達H100 的 2.4 倍,高帶寬内存帶寬最高可達 H100 的 1.6 倍,顯然 MI300X能運行比 H100 更大的 AI 模型。
MI300X 所在的 MI300 系列,是 AMD 為 AI 和高性能計算(HPC)打造的一系列最新 APU 加速卡。
其中,MI300A 是 " 基礎款 ",MI300X 則是硬體性能更高的 " 大模型優化款 "。
蘇媽還現場演繹 MI300X 的計算速度,利用抱抱臉的 400 億參數大模型快速寫了首小詩:
遺憾的是,市場對 AMD 的新卡好像不太買賬。
就在這次 AMD 發布會期間,市場股價一路下跌,開完後甚至跌了 3.61% ……相比之下,英偉達股價還上漲了一波。
不過仍有網友表示驚喜:
盡管股價波動,這可能是第一次有這麼大的模型(400 億參數)在單卡 GPU 上運行。
所以,AMD 最新 MI300 系列的參數細節如何?
"LLM 專用加速卡 "
先來看看Instinct MI300A的情況。
據蘇媽介紹,MI300A 應該是首個針對 AI 和高性能計算(HPC)推出的 APU。
它一共有 13 個小芯片,包含 9 個 5nm 制程 GPU+CPU,以及 4 個 6nm 制程的小芯片(base dies),包含 1460 億個晶體管,其中有 24 個 Zen 4 CPU 核心,1 個 CDNA 3 圖形引擎,128GB 的 HBM3 内存。
相比 MI250,MI300 的性能提升了 8 倍,效率提升了 5 倍。
再來看看Instinct MI300X。
這是針對大語言模型(LLM)專用的卡,包含 12 個小芯片,1530 億個晶體管,192GB 的 HBM3 内存,内存帶寬達到 5.2TB/s,Infinity Fabric 帶寬達到 896GB/s。
蘇媽還現場展示了 MI300X 運行包括 GPT-3、PaLM2 等大模型的優勢:
在發布 MI300X 的現場,蘇媽還現場運行了 Hugging Face 的 falcon-40b-instruct 模型,寫了首關于舊金山(這次 AMD 發布會地址)的小詩。
除此之外,AMD 這次發布會還發布了第四代霄龍(EPYC)處理器,包括亞馬遜、微軟和 Meta都已經在着手準備用上新品了。
預計今年 Q4 推出
除了最新推出的霄龍處理器、MI300A 和 MI300X 以外,AMD 還在發布會上宣布了一個 AMD Instinct 計算平台。
這個平台集成了 8 個 MI300X,可提供 1.5TB 的 HBM3 内存。
那麼,這些新卡和新平台,預計什麼時候能出貨?
目前來看,MI300A已經出樣,估計不久就能買上;大模型專用卡MI300X、以及集成 8 個 MI300X 的 AMD Instinct 計算平台,預計今年第三季度出樣,第四季度就能推出。
但這幾年來,相比英偉達一直在 AI 上面有大動作,AMD 的行動卻好像有點遲緩。
就在這次發布會前幾天,DeepBrain AI 的 CEO Eric Jang 發推表示,感覺 AMD 這幾年讓他很失望,5 年來沒什麼變化:
蘇媽和她的所有高管,至少該開始嘗試用 AMD 卡跑一些大模型,看看能不能達到 SOTA。
Eric Jang 指出,AMD 和英偉達已經存在一定差距。
如果 AMD 不努力跟上,差距只會越拉越大:
老黃(Jensen)很硬核,他不僅會親自回應客戶并在 12 小時内解決問題,手臂上還紋着英偉達的 LOGO。
相比之下,AMD 至少需要加倍努力,否則它将永遠追不上英偉達。
好消息是,AMD 至少開始行動了。這次發布會結束,就有網友表示:
至少,現在終于能看到 AMD 和 NVIDIA 正面打擂台了。
你看好 AMD 的新卡嗎?
參考鏈接:
[ 1 ] https://www.anandtech.com/show/18915/amd-expands-mi300-family-with-mi300x-gpu-only-192gb-memory
[ 2 ] https://www.tomshardware.com/news/amd-expands-mi300-with-gpu-only-model-eight-gpu-platform-with-15tb-of-hbm3
[ 3 ] https://twitter.com/ericjang11/status/1665618676354109440