今天小編分享的互聯網經驗:英偉達“狂投”AI獨角獸,“錢+GPU”組建最強AI產業聯盟?,歡迎閱讀。
ChatGPT 的火爆掀起了從巨頭到初創的科技業 AI 競賽。在這場 AI 淘金大戰中,提供一流 AI 芯片的英偉達成為大赢家,華爾街高呼 " 英偉達是 AI 大戰唯一的軍火商" 。
而過去一個月,英文達又在 AI 風投圈殺瘋了,看來正在趁其 GPU 處于領先地位的時間視窗,鞏固建立的最強 AI 產業聯盟。
一天内兩家 AI 獨角獸官宣英偉達參投 Inflection AI 估值升至全球第三高
今年 6 月,英偉達就參與了三家高調宣布獲得新一輪融資的 AI 獨角獸融資。其中 6 月 9 日,做類 ChatGPT 聊天機器人的加拿大 AI 公司 Cohere 宣布完成 2.7 億美元 C 輪融資,英偉達、甲骨文、Salesforce 等參與。Cohere 的估值由此達到約 22 億美元。
另外兩家在上周四一天内不約而同公布大規模融資的初創分别是:推出 AI 聊天機器人 Pi 的 Inflection AI 和 AI 文生視頻創企 Runway。
其中,由 DeepMind 聯合創始人 Mustafa Suleyman 去年聯合創辦并擔任 CEO 的 Inflection AI 獲得 13 億美元新融資,據 Crunchbase 統計,這是目前排在第四高位的 AI 融資輪規模。
Inflection AI 新一輪融資的領投方是微軟、領英聯合創始人 Reid Hoffman、比爾•蓋茨、谷歌董事長埃裡克•施密特,英偉達是投資者中唯一的新面孔。
完成融資後,Inflection AI 的估值升至約 40 億美元,成為估值僅次于 OpenAI 和 Anthropic 的全球第三大生成式 AI 獨角獸。
Runway 完成了 1.41 億美元新融資,新加入的投資者包括谷歌、英偉達和 Salesforce,通過這輪,Runway 的估值升至約 15 億美元,不到半年翻了三倍。
Inflection AI 集成 2.2 萬英偉達 H100 打造最強超算 芯片量碾壓 Meta 超算
Inflection AI 最近推出了其首個專有語言模型 Inflection-1,稱該模型是在非常大的數據集上使用數千個英偉達 H100 訓練的,是其計算類别中最好的模型,在通常用于比較大語言模型(LLM)的各種基準測試中,性能優于 GPT-3.5、LLaMA、Chinchilla 和 PaLM-540B。
上周四,Inflection AI 還宣布,在與英偉達合作打造全球最大的 AI 集群之一,其超級計算機将擴展至包含 2.2 萬個英偉達 H100 芯片,支持新一代 AI 大模型的訓練和部署。集成 AI 芯片的數量直接碾壓了 Meta 今年 5 月公布的 1.6 萬個 A100 打造的超算集群。
除了英偉達,Inflection AI 上述超級 GPU 集群的另一合作方是雲服務供應商 CoreWeave。它号稱可提供 " 比傳統雲提供商便宜 80%" 的算力。英偉達之前曾對 CoreWeave 投資 1 億美元。6 月有媒體稱,微軟同意未來數年内向 CoreWeave 投資數十億美元,用于雲計算基礎設施建設。
在最新發布的權威 AI 性能基準測試 MLPerf 中,英偉達和 CoreWeave 合作構建的擁有 3584 個 H100 的集群,僅用不到 11 分鍾就訓練完 GPT-3 大型語言模型。
英偉達領先對手兩年 但優勢地位并未無懈可擊 CUDA 不會一直是護城河
Jon Peddie Research 的 GPU 市場數據報告統計,去年英偉達全年 PC GPU 出貨量達 3034 萬塊,是 AMD 的近 4.5 倍;截至去年四季度,在獨立 GPU 市場,英偉達占據 84% 的市場份額,遠超同業競争公司。
上月英偉達發布的今年一季度營收遠優于預期,AI 芯片所在業務收入創歷史新高,保持 10% 以上同比增速,二季度營收指引更是炸翻全場,不但未如市場預期連續第四個季度下滑,而且同比猛增 33%,盡顯 AI 芯片需求的火爆勢頭。
财報公布後,芯片咨詢公司 D2D Advisory 的創始人 Jay Goldberg 表示," 目前,AI 芯片市場看起來仍将是英偉達一個赢家通吃的市場。"
上月 AMD 發布其最先進的 AI 芯片 MI300X 後,分析師們并未跟風吹爆,而是很理智地指出,AMD 想要在 AI 芯片領網域挑戰英偉達的行業龍頭地位,還有很長的路要走,僅憑這款芯片并不能做到。
Cambrian-AI Research LLC 的創始人兼首席分析師 Karl Freund 認為,除了英偉達擁有 AI 行業最大的軟體和研究人員生态系統、MI 300X 不具有很大的内存優勢和明顯的成本優勢外,AMD 面臨的關鍵挑戰是,沒有像 H100 那樣的 Transformer Engine(用于在英偉達 GPU 上加速 Transformer 模型的庫),H100 可以将大語言模型(LLM)的性能提高兩倍。
這導致了,如果用幾千個英偉達的 GPU 來訓練一個新模型需要一年的時間,那麼用 AMD 的硬體來訓練可能需要再等兩三年,或者同樣的時間内投入三倍的 GPU。
英偉達财報公布後,有評論提到,AI 初創企業投資機構 Air Street Capital 的合夥人 Nathan Benaich 估算,英偉達比競争對手領先了兩年。他在評價英偉達的成功時這樣說:
英偉達比其他人先一步看到未來,他們将重心轉向讓 GPU 可編程,他們發現了機會,下了大賭注,并持續超越了競争對手。
但同時,業内人士也認為,華爾街對英偉達的熱情有些過于樂觀。Benaich 指出,英偉達在硬體和軟體方面遠沒有達到無懈可擊的地步。
華爾街見聞此前提到,英偉達基于其生產 GPU 的并行計算平台和編程模型 CUDA 幫助其構建了強大的生态護城河,進一步增加了競争壁壘。
而推出大熱 AI 繪畫模型 Stable Diffusion 的公司 Stability AI 最近也對 Benaich 以上提及的英偉達面臨競争形勢表示認同。他說:" 谷歌、英特爾和其他公司的下一代芯片正在迎頭趕上,随着軟體的标準化,甚至 CUDA 也變得不再是護城河。"