今天小編分享的科技經驗:Meta第二代自研AI芯投產,擺脫英偉達依賴!為買H100小扎狂砸數百億美元,歡迎閱讀。
新智元報道
編輯:編輯部
【新智元導讀】Meta 的第二代自研芯片正式投產!小扎計劃今年部署 Artemis AI 芯片為 AI 提供算力,以減少對英偉達 GPU 的依賴。
Meta 第二代自研 AI 芯片 Artemis,今年正式投產!
據悉,新的芯片将被用于數據中心的推理(Inference)任務,并與英偉達等供應商的 GPU 一起協同工作。
對此,Meta 的發言人表示:「我們認為,我們自主開發的加速器将與市面上的 GPU 相得益彰,為 Meta 的任務提供最佳的性能與效率平衡。」
除了更高效地運行的推薦模型外,Meta 還需要為自家的生成式 AI 應用,以及正在訓練的 GPT-4 開源競品 Llama 3 提供算力。
Meta 的 AI 貼紙功能,此前在 Messenger、Instagram 和 WhatsApp 上都處于測試階段
OpenAI 工程師 Jason Wei 在 Meta 的一次 AI 活動中聽到,Meta 現在有足夠的算力來訓練 Llama 3 和 4。Llama 3 計劃達到 GPT-4 的性能水平,但仍将免費提供
不難看出,Meta 的目标非常明确——在減少對英偉達芯片依賴的同時,盡可能控制 AI 任務的成本。
Meta 成英偉達大客戶
Meta CEO 小扎最近宣布,他計劃到今年年底部署 35 萬顆英偉達 H100 GPU,總共将有約 60 萬顆 GPU 運行和訓練 AI 系統。
這也讓 Meta 成為了繼微軟之後,英偉達最大的已知客戶。
小扎表示,目前 Meta 内部正在訓練下一代模型 Llama 3。
在 35 萬塊 H100 上訓練的 Llama 3,無法想象會有多大!
Omdia 的研究數據顯示,Meta 在 2023 年 H100 的出貨量為 15 萬塊,與微軟持平,且是其他公司出貨量的 3 倍。
小扎稱,「如果算上英偉達 A100 和其他 AI 芯片,到 2024 年底,Meta 将擁有近 60 萬個 GPU 等效算力」。
性能更強、尺寸更大的模型,導致更高的 AI 工作負載,讓成本直接螺旋式上升。
據美國媒體的一位匿名人士稱,今年頭幾個月,每有一個客戶,微軟每月在 Github Copilot 上的損失就超過 20 美元,甚至某些用戶每月的損失高達 80 美元,盡管微軟已經向用戶收取每月 10 美元的費用。
之所以賠錢,是因為生成代碼的 AI 模型運行成本高昂。 如此高的成本,讓大科技公司們不得不尋求别的出路。
除了 Meta 之外,OpenAI 和微軟也在試圖打造自己專有的 AI 芯片以及更高效的模型,來打破螺旋式上升的成本。
此前外媒曾報道,Sam Altman 正計劃籌集數十億美元,為 OpenAI 建起全球性的半導體晶圓廠網絡,為此他已經在和中東投資者以及台積電談判
專為大模型定制 AI 芯
去年 5 月,Meta 首次展示了最新芯片系列——「Meta 訓練和推理加速器」(MTIA),旨在加快并降低運行神經網絡的成本。
MTIA 是一種 ASIC,一種将不同電路組合在一塊板上的芯片,允許對其進行編程,以并行執行一項或多項任務。
内部公告稱,Met 首款芯片将在 2025 年投入使用,同時數據中心開啟測試。不過,據英國媒體報道,Artemis 已經是 MTIA 的更高級版本。
其實,第一代的 MITA 早就從 2020 年開始了,當時 MITA v1 采用的是 7nm 工藝。
該芯片内部内存可以從 128MB 擴展到 128GB,同時,在 Meta 設計的基準測試中,MITA 在處理中低復雜度的 AI 模型時,效率要比 GPU 還高。
在芯片的内存和網絡部分,Meta 表示,依然有不少工作要做。
随着 AI 模型的規模越來越大,MITA 也即将遇到瓶頸,因此需要将工作量分擔到多個芯片上。
當時,Meta 團隊還設計了第一代 MTIA 加速器,同樣采用台積電 7nm,運行頻率為 800MHz,在 INT8 精度下提供 102.4 TOPS,在 FP16 精度下提供 51.2 TFLOPS。它的熱設計功耗(TDP)為 25W。
2022 年 1 月,Meta 還推出了超算 RSC AI,并表示要為元宇宙鋪路。RSC 包含 2000 個英偉達 DGX A100 系統,16000 個英偉達 A100 GPU。
這款超算與 Penguin Computing、英偉達和 Pure Storage 合作組裝,目前已完成第二階段的建設。