今天小編分享的科技經驗:AI缺芯,英偉達賣斷貨,歡迎閲讀。
8 月 8 日,全球計算機業内最重要的圓桌會議,世界計算機圖形學會議 SIGGRAPH 正式召開。
NVIDIA 創始人兼 CEO 黃仁勳出席,并帶來了新一代英偉達超級 AI 芯片 GH200。黃仁勳對自己的新旗艦產品非常有自信,将 GH200 稱為 " 世界上最快的内存 "。
在如今的 AI 市場,英偉達是堪稱 " 運轉整個 AI 世界的中心 "。不論是 OpenAI 還是谷歌、META、百度、騰訊、阿裏巴巴,所有的生成式 AI 都極度依賴英偉達的 AI 芯片來訓練。
并且,據媒體報道,英偉達 AI 芯片 H100 在 2023 年 8 月的市場總需求可能在 43.2 萬張左右,而目前一張 H100 芯片在 Ebay 上的價格甚至炒到了 4.5 萬美元,折合人民币超過了 30 萬元。
40 多萬張芯片缺口,單價 4.5 萬美元,總價輕輕松松上數百萬美元。
英偉達,正在經歷一場比 " 挖礦時代 " 更瘋狂的市場浪潮。
AI 芯片,一張難求
所謂的 AI 芯片,其實是圖形處理器(GPU),主要作用是幫助運行訓練和部署人工智能算法所涉及的無數計算。
也就是説,生成式 AI 的種種智能表現,均來自于無數 GPU 的堆砌。使用的芯片越多,生成式 AI 就越智能。
OpenAI 對 GPT-4 訓練細節守口如瓶,但據媒體猜測,GPT-4 至少需要 8192 張 H100 芯片,以每小時 2 美元的價格,在約 55 天内可以完成預訓練,成本約為 2150 萬美元(1.5 億人民币)。
據微軟高管透露,為 ChatGPT 提供算力支持的 AI 超級計算機,是微軟在 2019 年投資 10 億美元建造一台大型頂尖超級計算機,配備了數萬個英偉達 A100 GPU,還配備了 60 多個數據中心總共部署了幾十萬個英偉達 GPU 輔助。
ChatGPT 所需要的 AI 芯片并不是固定的,而是逐次遞增。ChatGPT 越聰明,背後的代價是所需算力越來越多。據摩根士丹利預測,到了 GPT-5 大概需要使用 2.5 萬個 GPU,約是 GPT-4 的三倍之多。
如果想滿足 OpenAI、谷歌等一系列 AI 產品的需求,那麼就相當于英偉達一家公司為全世界的 AI 產品供芯,這對于英偉達的產能是個極大的考驗。
雖然英偉達正在開足馬力生產 AI 芯片,但據媒體報道,小型和大型雲提供商的大規模 H100 集群容量即将耗盡,H100 的 " 嚴重缺貨問題 " 至少會持續到 2024 年底。
目前,英偉達作用于 AI 市場的芯片主要分為 H100 和 A100 兩種,H100 是旗艦款產品,從技術細節來説,H100 比 A100 在 16 位推理速度大約快 3.5 倍,16 位訓練速度大約快 2.3 倍。
不論是 H100 還是 A100,全部都是由台積電合作生產,就使得 H100 的生產受到了限制。有媒體稱,每一張 H100 從生產到出廠大約需要半年的時間,生產效率非常的緩慢。
英偉達曾表示它們在 2023 年下半年,提高對 AI 芯片的供應能力,但沒有提供任何定量的信息。
不少公司和求購者都在呼籲,要求英偉達加大對晶圓廠的生產數量,不只和台積電合作,而是把更多的訂單交給三星和英特爾。
更快的訓練速度
如果沒辦法提高產能,那麼最好的解決辦法就是推出性能更高的芯片,以質取勝。
于是乎,英偉達開始頻頻推出新款 GPU 用來提升 AI 訓練能力。先是在今年 3 月,英偉達發布了 H100 NVL GPU、L4 Tensor Core GPU、L40 GPU、NVIDIA Grace Hopper 四款 AI 芯片,以滿足生成式 AI 們日益增長的算力需求。
在上一代還未量產上市,英偉達又在 8 月 8 日世界計算機圖形學會議 SIGGRAPH 上,由黃仁勳發布了 H100 的更新版,GH200。
據了解,全新 GH200 Grace Hopper Superchip 基于 72 核 Grace CPU,配備 480GB ECC LPDDR5X 内存以及 GH100 計算 GPU,搭配 141GB HBM3E 内存,采用 6 個 24GB 堆棧,使用 6144 位存儲器接口。
GH200 最大的黑科技,就是作為世界上第一款配備 HBM3e 内存的芯片,能夠将其本地 GPU 内存增加 50%。而這也是專門對人工智能市場做的 " 特定更新 ",因為頂級生成式 AI 往往尺寸巨大卻内存容量有限。
據公開資料顯示,HBM3e 内存是 SK 海力士的第五代高帶寬内存,是一種新型的高帶寬内存技術,可以在更小的空間内提供更高的數據傳輸速率。它的容量為 141GB,帶寬為每秒 5TB,能分别達到 H100 的 1.7 倍和 1.55 倍。
從 7 月份發布以來,SK 海力士就成為 GPU 市場的寵兒,領先于直接競争對手英特爾 Optane DC 和三星的 Z-NAND 閃存芯片。
值得一提的是,SK 海力士一直以來都是英偉達的合作夥伴之一,從 HBM3 内存開始,英偉達絕大部分產品都是采用 SK 海力士的產品。但 SK 海力士對于 AI 芯片所需要的内存一直產能堪憂,英偉達不止一次的要求 SK 海力士提高產能。
一個難產大户遇上另一個難產大户,不由讓人擔心 GH200 的產能。
NVIDIA 官方表示,GH200 與當前一代產品 H100 相比,内存容量高出 3.5 倍,帶寬高出 3 倍;并且,HBM3e 内存将使下一代 GH200 運行 AI 模型的速度比當前模型快 3.5 倍。
比 H100 運行 AI 模型的速度快 3.5 倍,是否意味着,1 張 GH200 就能相當于 3.5 張 H100?一切都還得實踐操作才能得知。
但目前來説,可以肯定的一點就是,作為 AI 市場的最大供應商,英偉達進一步鞏固了自己領先位置,并和 AMD 和英特爾拉大了差距。
英偉達的對手們
面對 43 萬張 AI 芯片缺口,沒有一家公司不動心。尤其是英偉達的最大競争對手 AMD 和英特爾,不會放任其一個人獨吞整個市場。
今年 6 月 14 日,AMD 董事會主席、CEO 蘇姿豐密集地發布了多款 AI 軟硬體新品,包括針對大語言模型設計的 AI 芯片,MI300X。正式拉開在 AI 市場,對英偉達的正面挑戰。
在硬體參數上,AMD MI300X 擁有多達 13 顆小芯片,總共包含 1460 億個晶體管,配置 128GB 的 HBM3 内存。其 HBM 密度為英偉達 H100 的 2.4 倍,帶寬為英偉達 H100 的 1.6 倍,意味着可加快生成式 AI 的處理速度。
但可惜的是,這款旗艦 AI 芯片并沒有現貨,只是預計将于 2023 年 Q4 季度全面量產。
而另一競争對手英特爾,則在 2019 年就以約 20 億美元的價格收購了人工智能芯片制造商 HABANA 實驗室,進軍 AI 芯片市場。
今年 8 月,在英特爾最近的财報電話會議上,英特爾首席執行官 Pat Gelsinger 表示,英特爾正在研發下一代 Falcon Shores AI 超算芯片,暫定名為 Falcon Shores 2,該芯片預計将于 2026 年發布。
除了 Falcon Shores 2 之外,英特爾還推出 AI 芯片 Gaudi2,已經開始銷售,而 Gaudi3 則正在開發中。
只是可惜的是,Gaudi2 芯片規格并不高,難以實現對英偉達 H100 和 A100 發起挑戰。
除了國外半導體巨頭們大秀肌肉,開始了 " 芯片競争 " 之外,國内的半導體公司也開始了對 AI 芯片的研發。
其中,昆侖芯 AI 加速卡 RG800、天數智芯的天垓 100 加速卡、燧原科技第二代訓練產品雲燧 T20/T21,均表示能夠具有支持大模型訓練的能力。
在這場以算力為标準,以 AI 大模型為戰場的芯片之争,英偉達作為 AI 市場的最大赢家之一,已經在芯片設計和市場占比等方面展示出它的強大。
但國產 AI 芯片雖然稍稍落後,但研發和擴展市場的腳步從未停止,未來值得期待。