今天小編分享的科技經驗:英偉達 GTC 大會攜萬億參數 GPU「炸裂」 AI 行業,歡迎閱讀。
作者:郭思、賴文昕
編輯:陳彩娴
北京時間 3 月 19 日凌晨 4 點,英偉達公司創始人兼 CEO 黃仁勳踏上了美國加州聖何塞 SAP 中心的舞台,開始講述 2024 GTC 主題演講《見證 AI 的變革時刻》。
作為 "AI 界春晚 " 中最重要的一項日程,黃仁勳在演講中揭開了号稱 " 史上最強 AI 芯片 GB200" 的神秘面紗,并推出了 NVIDIA Blackwell、NIM 微服務、Omniverse Cloud API 等一系列涵蓋硬體、軟體開發、雲計算的更新。
此外,黃仁勳還官宣了英偉達在機器人和具身智能技術的眾多進展,包括了與比亞迪的合作以及運用在人形機器人的基礎模型和新型計算機。
英偉達指出,新 Blackwell 架構 GPU 組成的 GB200,将提供 4 倍于 Hopper 的訓練性能,大模型參數達到了萬億級别。這意味着同樣的計算能力,科技廠商所需的芯片數量會減少。
在目前大模型火爆,商業落地卻前景尚不明朗的情況下,GTC 對于整個產業鏈都來了不同凡響的技術以及商業啟發。
史上最強 AI 芯片 "GB200"
黃仁勳稱,随着 Transformer 模型被發明,大型語言模型以驚人的速度擴展,每六個月就會成倍進步,為了訓練這些越來越大的模型,自然也需要更強的算力。
什麼是 " 更強的算力 " 呢?
黃仁勳從口袋裡掏出一塊 Blackwell 芯片,将它與 Hopper 芯片并排舉起," 我們需要更大的 GPU"。
他宣布英偉達将推出 GB200 系列芯片,将搭載專為處理萬億參數級生成式人工智能而設計的 NVIDIA Blackwell 架構。
新架構繼承了兩年前推出的 NVIDIA Hopper 架構,以 David Harold Blackwell 命名,這是加州大學伯克利分校專門研究博弈論和統計學的數學家,也是第一位入選美國國家科學院的黑人學者。
同自家產品相比,芯片的性能有了顯著的提升。GB200 芯片由兩個 Die 封裝組合而成,擁有高達 2080 億個晶體管,采用了台積電 4NP 工藝制程技術,使其能夠支持龐大的 AI 模型,參數量可達 10 萬億。相比之下,H100/H200 系列芯片則只配備了 800 億個晶體管。
Blackwell 能大幅提高大模型的訓練、推理效率。 在 FP8 訓練方面,Blackwell 的每芯片性能是其前身的 2.5 倍,在 FP4 推理方面的性能是其前身的 5 倍。它具有第五代 NVLink 互連,速度是 Hopper 的兩倍,并且可擴展至 576 個 GPU。
黃仁勳以訓練 1.8 萬億參數 GPT 模型的資源消耗為例,直觀地展現了 Backwell 作為 " 一個巨型 GPU" 的強大之處:使用 Hopper GPU,需 8000 張,耗能 15 兆瓦,耗時 90 天;而 Blackwell GPU 僅需 2000 張,電力消耗減少 75%,同樣 90 天内完成。
為了擴大 Blackwell 的規模,英偉達還構建了一款名為 NVLink Switch 的新芯片。每個 Blackwell 芯片能以每秒 1.8 TB 的速度與四個 NVLink 互連,并通過減少網絡内流量來消除流量。
此外,GB200 芯片的設計将兩個 B200 Blackwell GPU 與一款基于 Arm 架構的 Grace CPU 相結合,旨在提供更加強大的計算能力和更高的效率。這種配對設計不僅增強了處理能力,也為 AI 大模型的運行提供了更為優化的平台。
正如黃仁勳所說的一樣," 整個行業都在為 Blackwell 做準備 ",目前 Blackwell 正在被全球各大雲服務提供商、AI 公司和電信公司等采用。
在 GTC 大會上,微軟和英偉達深化了雙方長期以來的合作關系,整合了英偉達生成式人工智能和 Omniverse 技術,這些技術已廣泛應用至微軟 Azure、Azure AI 服務、微軟 Fabric 以及微軟 365 等平台。
微軟 CEO 薩提亞 · 納德拉表示:" 與英偉達攜手合作,我們正在将人工智能的潛力變為現實,助力全球各地的人們和組織實現新的效益和生產力提升。
從将 GB200 Grace Blackwell 處理器引入 Azure,到 DGX Cloud 與微軟 Fabric 之間的新集成,我們今天宣布的一系列舉措将确保客戶能夠在 Copilot 堆棧的每一層面上,從矽芯片到軟體,都能擁有最全面的平台和工具,以構建自己的突破性 AI 能力。"
除了 "GB200" 這位絕對主角外,黃仁勳也在 GTC 大會上官宣了英偉達在軟體開發的革新 "NVIDIA NIM"。他表示,未來構建軟體時不太可能從頭開始編寫或編寫一大堆 Python 代碼之類的東西," 很可能你會組建一支 AI 團隊。"
NVIDIA NIM 由英偉達的加速計算庫和生成式 AI 模型構建,支持行業标準 API,因此易于連接,可在英偉達龐大的 CUDA 安裝基礎上工作,針對新 GPU 進行重新優化,并不斷掃描安全漏洞和漏洞,目前 Cohesity、NetApp 和 Snowflake 等科技公司已在使用。
在 GTC 大會上,黃仁勳還宣布了與眾多公司的合作。
在半導體制造行業,英偉達已與台積電和 Synopsys 合作,将其計算光刻平台 CuLitho 應用于先進芯片的生產過程。
在電信行業,推出 NVIDIA 6G 研究雲,這是由生成式人工智能和 Omniverse 技術提供動力的平台,致力于推進下一代通信技術的進步。
在在交通運輸行業,比亞迪計劃利用英偉達的集中式車載計算平台 DRIVE Thor 來開發其下一代電動車型。
此外,黃仁勳還宣布了一系列旨在推動英偉達機器人技術研發的項目,如機械臂感知、路徑規劃和運動學控制庫 Isaac Manipulator,人形機器人的模型平台 GR00T,和新型計算機 Jetson Thor。
最後,搭載了英偉達為機器人設計的首款 AI 芯片 Jetson 的迪士尼機器人 orange 和 green 也登上了舞台,陪伴黃仁勳為演講畫上了句号。
AI 芯片新皇登場的後續思考
We need Bigger GPUs … A very very big GPU!
非常非常大的 GPU,是老黃對于整場 GTC 大會最切實的表達。畢竟,新 Blackwell 架構 GPU 組成的 GB200,将提供 4 倍于 Hopper 的訓練性能,大模型參數達到了萬億級别。
另一方面,為了更好地服務于日益壯大的大模型應用領網域,英偉達推出了極具針對性的服務——模型定制服務 Nvidia Inference Manager(簡稱 NIM),這意味着只要有英偉達硬體的存在,用戶就能便捷地進行大模型的調試與應用。
看得出來,老黃對于大力出奇迹這一理論也持認可态度。
而大眾對于這一消息的第一反應則大部分是震驚,甚至用了感到炸裂來形容。通過英偉達的種種做法,我們也不禁感慨,英偉達在 AI 行業的地位已有目共睹。
甚至有業内人士用了 AI 時代的思科以及 AI 時代的 Wintel 來形容。(思科在網絡設備和協定标準化方面曾起到了至關重要的作用,而英偉達通過其 GPU 和 AI 平台推動了 AI 計算基礎設施的發展,為數據中心、雲端和邊緣計算提供了關鍵的硬體支持。)
在炸裂之後,我們可以看到,英偉達 GB200 的發布對于行業的技術突破和商業發展都帶來了深遠的影響。
在技術上,業界一致認為通過不斷挖掘和利用高性能計算的力量,來拓展人工智能技術的規模化疆界,是推動行業發展的重要手段。
國家超級計算深圳中心主任馮聖中在評價英偉達 GB200 的卓越表現時,則用 " 進步顯著,但仍有巨大潛力可挖 " 進行了精辟總結。這也意味着 GB200 乃至整個高性能計算與 AI 領網域,未來都還還可能在技術上有更為突破性的表現出現。
不過除了對 GTC 所展現出來的對技術強烈認可和憧憬之外,更多行業人士關注的則是 GB200 發布對于商業和國内整體市場的影響。
在芯片領網域,產能和定價是最為被大家關注的問題。一位資深投資者向筆者指出,GB200 的發布是技術上的突破,但如果產能能放量的話,則會更加成為商業上的炸裂。
目前整體而言,大模型的成本還是太貴。拿大家熟知百度文心為例,業内消息指出文心大模型 4.0 的推理成本相比于之前的版本出現了大幅增長,最高據說增加了 8-10 倍,這意味着提供實時生成内容服務的成本驟增。這意味 GB200 的成本一旦打下來,國内芯片廠商的空間會被擠壓得更加厲害。
而在整個 GTC 大會上,我們發現,不同于以往的發布單一芯片,這次英偉達直接放出整個伺服器。也引發了對于市場格局的思考。國内某大型元器件公司從業者告訴 AI 科技評論,英偉達的做法很明顯,自身在底層東西很強勢,就幹脆直接不做單套,直接賣整機,反正最後都得壟斷。
下放到中國市場,大家的一致看法則是,按照以往美國的做法,大概率產品一經發行便會受到制裁。業内投資人告訴 AI 科技評論,新一波的制裁大概率會出現在四月份。
這意味着,在國内先進制程中短期内(5 年)或都難以趕上國外的現狀之下,H800 等被閹割系列的存量運營效率價值将顯著提升,水貨和渠道貨的價格可能會迎來回彈和普漲,這其實也将進一步加劇供應鏈緊張态勢。
在此背景下,大模型廠商如何合法合理地借鑑雲服務提供商的經驗,尋求海外采購及儲備策略,成為一個具有實際意義的研究課題。
另一方面,穩扎穩打投資 Infra 公司、把生态 + 推理的量提升或許也更加具有借鑑意義。
正如搭建高樓大廈,追求最頂尖的建築材料和技術固然重要,但這并不意味着所有建設項目都将僅僅依賴于最先進的頂層設計,其餘基礎材料也同樣至關重要。這也就意味着即使在高端產品領網域我們暫時未能趕超,但在 AI 在基礎建設層面孕育大量的市場需求和發展機遇。
而對于國内 GPU 廠商而言,套用某 GPU 從業者的話則是:英偉達牛逼慣了,大概率會被制裁,國内的 GPU 公司則更加要好做產品,從能賣掉的做起來。
雷峰網作者長期關注一大模型計算與框架、芯片領網域動态,歡迎添加作者微信 lionceau2046、anna042023 互通有無