今天小編分享的财經經驗:英偉達,再次展示了自己對于AI的“主權”,歡迎閱讀。
作者丨李赓
頭圖丨視覺中國
英偉達,再次證明了自己獨一無二的存在。
作為全球 AI 行業毫無疑問的 " 賣鏟人 " 和 " 鋪路人 ",英偉達在今天凌晨召開的年度技術峰會 GTC 上再次展示了自己對于 AI 發展的 " 主權 "。
簡單概括下來,主要包括三點:再次躍升的性能;強悍的生态控制力;迫近兌現時刻的創新潛力。三者相互結合,再次鞏固了英偉達在 AI 時代的統治力。
再次刷新天花板的無敵性能
左側為全新的 B200 GPU,右側為 H200 GPU
先說性能,在上一代 Hopper 架構發布兩年之後,英偉達終于在這次 GTC 上發布了全新的
Blackwell 架構。
從目前種種信息,包括黃仁勳自己的發言來看,Blackwell 架構在計算模塊上并沒有和 Hopper 存在很大差異,最大的不同在于英偉達采用了類似蘋果 M 系列處理器 Ultra 的雙芯并聯設計,用新增加的超高速鏈路将兩顆芯片 die 通過芯片封裝的手段 " 組合 " 成了一顆大 GPU,從而讓全新的 B200 GPU 實現了單顆 GPU 2080 億晶體管的超大規模,再配合多達 192GB 的 HBM3e 顯存,讓 B200 GPU 直接成為了目前全球最強勁的 GPU 芯片。
GB200 和上一代計算模塊的性能曲線差距
但在參數之外,其實際性能的提升卻要明顯的多:就拿大語言模型推理的實際應用場景來說,将兩個 Blackwell GPU 和一個 Grace CPU 結合在一起的 GB200 模塊,能夠比上一代 H200 GPU 性能高足足 30 倍。
性能的提升,直接轉化為了功耗的下降,根據英偉達官方給出的參考:同樣是在 90 天内訓練出 GPT
-MoE 1.8 萬億參數模型,Hopper 架構的超級計算機需要 8000 個 GPU 和 15 兆瓦的電力,而 Blackwell 只需要 2000 個 GPU 和 4 兆瓦的電力。
GB200 NVL72 機架
在明顯更集中的規模和更低的耗能之外,英偉達還再次提升了他們芯片部署的解決方案:不僅将 GB200 模塊設計為極其緊湊的堆疊結構,同時還配上了新一代直接讓 576 個 GPU 相互連接、雙向帶寬達到每秒 1.8TB 的 NVLink 交換機,結合 5000 條近兩英裡長的各種電纜,最終打造成為将 36 個 CPU 和 72 個 GPU 集成到一起的液冷機架。
這也是全球首個推理性能能夠超越 1exaflops 的電腦機架,同時也是比 GB200 更大的一顆 "GPU"。
GB200 DGX Superpod
而在這台超強機架的基礎上,英偉達還能進一步擴大它的規模,拿被 GB200" 更新 " 的 DGX Superpod(英偉達自己的超級計算機解決方案)來說,就由 8 套機架系統組成,總共擁有 288 個 CPU、576 個 GPU、240TB 内存和 11.5exaflops 的 FP4 計算能力。
這套系統最多還能進一步擴展至數萬顆 GB200 規模,這些充沛的算力,全部通過英偉達自己的 800Gbps 網絡設備連接在一起,形成更大規模的集群,也再次刷新了同類產品的性能上限。
黃仁勳在現場演講時就自豪地表示:" 亞馬遜、Google、微軟和甲骨文都已計劃在其雲服務產品中提供基于 NVL72 機架的產品。" 可以預見,國外的雲計算即将刮起新一輪的英偉達新 GPU 搶購潮。
充分發揮英偉達優勢的新 AI 生态系統
早在 AI 還以自動駕駛為主旋律的時期,英偉達就已經開始向車企客戶推廣其雲端服務解決方案。而為了滿足 AI 大模型時代的模型共享、模型定制化、模型運行、雲計算支持在内的一系列問題,英偉達在這次 GTC 上推出了全新的 " 英偉達推理微服務(NIM)"。
英偉達推理微服務(NIM)
NIM 在構建的過程中,充分借鑑了 K8S(Kubernetes)這些年的成功經驗,将行業 API,AI 算法支持庫、雲端架構支持、AI 算法加速、定制模型、定制存儲、企業管理等訴求都注入到一個小的 " 容器 " 中,進而将 AI 模型的成果打包和部署過程高度簡化。
如果說容器化的理念已經很可怕,那麼更可怕的是這套解決方案,與目前 AI 行業智能體發展趨勢的契合度。
早在去年,在 ChatGPT 能力之上二次開發的 AutoGPT 就曾大火過一波,當時 AutoGPT 的策略是通過 ChatGPT 的多次循環,實現對復雜目标的拆分和分散尋找答案。但随着後來的實踐,整個行業其實已經看到了其能力的局限性——單靠語言大模型并不能解決所有問題。
NIM 應用運行模式構想
而目前行業内比較贊同的解決方案,就是在不斷提升基礎大模型能力的基礎上,不斷針對小的場景,提供專門的數據和目标,優化出解決一些問題的模型,也可以叫做 " 智能體 "。通過這些 " 智能體 " 數量和覆蓋的累積,以及基礎大模型的調度能力,最終讓 AI 實現 " 自我計劃、自我協調 " 的進階人工智能水平。更形象的說,就是一個輸入框解決用戶的絕大部分需求。
而持續為雲端提供充沛 AI 運行能力的英偉達,顯然有推進這套機制的資本。
在有望加速全行業 AI 應用落地之餘,英偉達的這套 NIM 體系,還将把各種有潛力的 AI 模型和應用,緊緊地綁定在英偉達有着明顯優勢的雲端算力性能和成本之上,進一步對抗由智能手機廠商發起的端側攻勢,讓其緊握遠期實現通用人工智能(AGI)的先機。
根據英偉達官方目前公布的計劃,NIM 體系将在 NVIDIA AI 企業版中首發,雖然 NIM 本身不收費,但是 NVIDIA AI 企業版收費不低,單 GPU 的使用權限包年就需要 4500 美金,小時租金為 1 美元每小時。
迫近兌現、充滿潛力的其他應用創新
在本次 GTC 之上,除了芯片和硬體解決方案的更新,還有 AI 生态上的全新想法,英偉達也按照慣例展開了幾個應用層面的創新案例。但如果你看過前幾年的 GTC,你肯定會覺得有點眼熟。
數字孿生地球台風氣象模拟
全新更新的蛋白質定制解決方案 DiffDock
進一步由更強大計算能力和算法武裝的機器人 / 自動駕駛生态
例如通過更大的 AI 算力,在更大的尺度上對全球的天氣進行學習預測,進而對台風等突發天氣實現 2 公裡精度的實時預測;又比如已經探索了很多年的蛋白質折疊研究;還有機器人領網域的全生态嘗試等等。
這些 " 舊 " 賽道在 AI 能力的提升下,其實都展現出了一定的新成果。
就拿機器人來說,英偉達此次全新推出了人形機器人基礎模型 Project GR00T,不僅可以通過人類的語言、視頻和真實演示(傳感器)來學習人類動作,還能夠在 GPU 模拟的虛拟世界中,通過 AI 的自我摸索來進行動作的訓練。
随着 AI 集群的能力不斷提升,虛拟世界中的模拟復雜度已經從最早期的單機械手上升到人形機器人整體。很顯然,其實用價值也在随着計算能力、AI 能力不斷躍升。
寫在最後
英偉達之所以如此強大,主要體現在 " 遠見 " 之上。尤其是持續依靠 " 前沿技術 + 下重注 " 引領全行業技術進步,持續享受到技術變革、產品變革的紅利。
就拿這次英偉達全新打造的 GPU 來說,能夠如期更新,必然和英偉達自己主動将 AI 應用于芯片研發制造流程中有着緊密的關聯。因為就在今天,台積電和新思科技(EDA 巨頭之一)已經宣布将使用英偉達的計算光刻技術,通過集成的英偉達 cuLitho 平台來加快芯片制造速度。
考慮到英偉達針對未來的布局實在眾多,例如這次發布會上也被提到的 "Earth Two" 數字孿生地球項目,量子計算 SDK(軟體開發工具包)"cuQuantum" 等,蛋白質定制研發工具 Diffdock,人形機器人項目 Project GR00T,6G 城市研究雲平台等等。
這些技術變革帶來的紅利,仍将支撐英偉達繼續坐穩全球 AI 行業,乃至整個科技行業的龍頭。