今天小編分享的科技經驗:AI算力軍備競賽,五大科技巨頭屯了多少GPU?,歡迎閲讀。
随着人工智能的加速發展,科技巨頭之間掀起了一輪輪 AI 算力競賽。日前,馬斯克的 xAI 集群數據曝光,其正在推出基于 10 萬個 H100 GPU 的 Colossus 訓練集群。Meta 也計劃購買 35 萬個 H100 GPU,加強 Llama 4 AI 模型的算力。LessWrong 網站對幾大 AI 巨頭的 GPU/TPU 數量進行估算,預計到 2025 年,微軟、谷歌、Meta、亞馬遜和 xAI 所擁有 GPU 的等效 H100 數量将超過 1240 萬塊。這表明科技巨頭間的算力 " 軍備競賽 " 仍在延續。
超 1240 萬塊,巨頭繼續布局算力版圖
最近,LessWrong 網站上發表了一篇博客,根據公開數據對英偉達芯片的產量、幾大 AI 巨頭的 GPU/TPU 數量進行了估算。其中,微軟擁有 75 萬 -90 萬塊等效 H100,明年預計達到 250 萬 -310 萬塊;谷歌擁有 100 萬 -150 萬塊等效 H100,明年預計達到 350 萬 -420 萬塊;Meta 擁有 55 萬 -65 萬塊等效 H100,明年預計達到 190 萬 -250 萬塊;亞馬遜擁有 25 萬 -40 萬塊等效 H100,明年預計達到 130 萬 -160 萬塊;xAI 擁有 10 萬塊等效 H100,明年預計達到 55 萬 -100 萬塊。
可以看出,幾大科技巨頭都在緊鑼密鼓地布局自己的算力版圖,開展下一代更先進模型的訓練。馬斯克此前即透露 Grok 3 将在年底前亮相。他表示,在法律問題數據集上完成訓練後,下一代 Grok 3 将是一個強大的私人律師,能全天候提供服務。谷歌 Gemini 2.0 預計在本月正式上線。OpenAI 更是宣布,将開啓為期 12 天的 "Shipmas" 新功能、新產品和演示活動,将展示文本轉視頻 AI 工具 Sora、新的推理模型等。
這些先進模型的訓練和推理需要龐大的算力資源。馬斯克聲稱,其 Colossus 集群是 " 世界上最強大的人工智能訓練系統 "。集群配備英偉達 HGX H100 伺服器,每台伺服器内含 8 張 H100 GPU,每個機架可容納 8 台伺服器,8 台伺服器組成 1 個陣列,每個陣列有 512 個 GPU,整個 Colossus 集群内有超過 1500 個 GPU 機架,支持着龐大的算力運行。
Meta 也在使用超過 10 萬個 Nvidia H100 GPU 的集群,訓練其最新 Llama 4 AI 模型,成為目前規模最大的 AI 訓練集群之一。明年 Meta 可能會使用 35 萬個 H100 GPU。至于 OpenAI,其背後支持者微軟很可能是英偉達近兩年的最大客户。據 Omdia Research 分析,2023 年微軟和 Meta 是 H100 的最大買家,預計采購量達到 15 萬個。而到了 2024 年,微軟的 AI 芯片囤貨目标更是提升到了驚人的 180 萬塊,其中大部分來自英偉達。
英偉達繼續領先,定制芯片市場值得關注
在 AI 巨頭繼續大規模部署 AI 算力的情況下,展望 2025 年 AI 芯片市場,英偉達作為全球 AI 芯片市場的領導者,仍将繼續保持其強大的市場影響力和技術領先地位。 2024 年 AI 芯片市場占有率:英偉達占據約 75%,其他定制化芯片占 10%-15%,剩餘的 10%-15% 由超微、英特爾等企業瓜分。另據 DIGITIMES Research 數據,2024 年高端伺服器 GPU 產值預估将達到 1022 億美元。
從此前的產品規劃來看,英偉達的 AI 芯片 Blackwell 產品發貨将從 2025 财年的四季度開始,屆時将同時發貨 Blackwell 和 Hopper 兩大系列的產品。而芯片業則已開始着眼英偉達的下一代 Rubin 芯片。大摩分析師 Charlie Chan 透露,台積電和供應鏈已在為 Rubin 芯片的推出做準備,推出的時間有可能從 2026 年上半年提前到 2025 年下半年。2025 年下半年将進入流片階段。下一代 Rubin 芯片将采用 3nm 工藝、CPO(共同封裝光學元件)和 HBM4(第六代高頻寬内存)等,性能将更加強大。
AMD 作為英偉達的主要競争對手之一,在 AI 芯片市場也表現出強勁增長勢頭。下一代 AMD Instinct MI350 系列加速器有望在 2025 年下半年上市。其基于 AMD CDNA 4 架構,推理性能比基于 AMD CDNA 3 的加速器提高 35 倍。
英特爾在 AI 芯片市場也擁有一定份額,但今年推出的 Gaudi 3 表現并不令人滿意,盡管 Gaudi 3 在性能上有所提升,可市場份額仍然較小,預計占有率約為 1%。不過,2025 年英特爾寄予厚望的 Intel 18A 将會量產。下一代 AI PC 處理器 Panther Lake 和下一代數據中心處理器 Clearwater Forest 将基于 Intel 18A,也在明年發布。此外,按此前的規劃,2025 年英特爾還将推出一款全新的 AI 加速器產品 Falcon Shores。這是 Gaudi 系列的後續產品。2025 年,英特爾能否在 AI 芯片市場有所表現,受到業界關注。
更令人關注的是幾大 AI 巨頭的定制芯片開發與應用進程。近日,亞馬遜 AWS 宣布推出全新的 AI 定制芯片 Trainium3,與上代 Trainium2 相比,采用 3nm 工藝,計算性能增加 2 倍,能效提升 40%。該產品預計于 2025 年底量產。據了解,Adobe、AI 新創公司 Poolside、數據平台服務 Databricks 以及芯片大廠高通都采用 Trainium2 訓練其 AI 模型。未來,AI 巨頭的定制芯片将是英偉達 GPU 的重要競争對手。
端側 AI 需求爆發,各大廠商提前卡位
2025 年的另一個重要趨勢是,AI 模型的邊緣和推理計算需求将迅速增長。迄今為止,大多數 AI 芯片活動都集中在數據中心方面,端側手機、PC 的 AI 應用也大多是從雲端調用。然而,具有真正端側 AI 功能的設備預計将于 2025 年推出,邊緣 AI 将變得更加普及。
在數據中心領網域 GPU 占據 AI 加速的主導地位,但邊緣側的情況将更加復雜多樣,企業需要通過靈活地配置 CPU、GPU 和 NPU,以滿足 AI 加速的廣泛需求。在英特爾日前舉辦的新質生產力技術生态大會上,記者看到一款英特爾與新華三共同推出的 AIGC 靈犀一體機,其基于至強處理器與 Gaudi2D 加速卡,可以在私網域靈活布局,進行多模型的高效推理和業務場景的閉環交付,滿足邊緣側 AI 應用的多模融合、靈活便捷等多元需求。在 AI PC 方面,英特爾展示的基于 XPU 的 AI 算力優化案例也頗具代表性,顯示 AI PC 在遊戲、教育教學、工廠制造、商場支付等方面的廣泛潛力。
高通在端側 AI 方面的舉措同樣值得關注。在骁龍峰會期間,高通推出骁龍 8 至尊版移動平台,面向終端側生成式 AI,采用新一代 Hexagon NPU,推理性能提升 45%,能效提升 45%,能夠支持更復雜的端側 AI 應用,互動體驗更加流暢直觀。此外,近年來高通還與騰訊混元、智譜 AI 等大模型廠商建立合作關系,推動端側 AI 應用的部署和落地。通過合作,高通為大模型在端側的運行提供算力支持,并優化大模型在端側的性能表現。
Arm 則在終端領網域引入計算子系統 ( CSS ) 。此前,Arm 已将計算子系統引入基礎設施、汽車領網域。Arm 的終端 CSS 中囊括了最新的 Armv9.2 Cortex CPU 集群和 Immortalis 與 Mali GPU、CoreLink 互聯系統 IP,以及基于 3nm 工藝生產就緒的 CPU 和 GPU。在軟體工具方面,KleidiAI 和 KleidiCV 庫可為端側人工智能和計算機視覺工作負載提供支持,Arm Performance Studio 可以幫助開發者簡化開發流程。
随着端側 AI 成為新一代智能手機、PC、汽車等智能設備發展的驅動力,有可能将形成一個超過雲端的廣大市場。