今天小編分享的汽車經驗:大模型路徑之争:理想與現實,歡迎閱讀。
文 | 異觀财經,作者 | 炫夜白雪
英偉達創始人黃仁勳,為正在舉辦的 GTC 大會甩出了 " 王炸 " ——新一代芯片,Blackwell GPU,包含 2080 億個晶體管,支持多達 10 萬億個參數的 AI 模型。
在一連串讓人看得目眩神迷的產品中,我們簡單地總結:這一次,英偉達做了什麼?
這一次,英偉達做了什麼?
第一,極大地提升了算力,并降低了能耗和成本。
" 我們需要另一種方式來進行計算,這樣我們才能夠繼續擴展,這樣我們才能夠繼續降低計算成本,這樣我們才能夠繼續進行越來越多的計算。"
" 我們需要更大的 GPU,如果不能更大,就把更多 GPU 組合在一起,變成更大的虛拟 GPU。"
以上,是黃仁勳在現場演講中的話。他再次回憶起,2016 年贈送給 OpenAI 的 DGX-1,那也是史上第一次 8 塊 GPU 連在一起組成一台超級計算機。
當時,DGX1 算力僅 0.17 Peataflop(1 Petaflop 等于每秒鍾進行 1 千萬億次的數學運算),而今天英偉達推出的 DGX Grace-Blackwell GB200 已經超過 1 Exaflop(百億億次)的算力。
8 年時間,AI 算力增長 1000 倍。
相比上一代 H100 Tensor 核心的 GPU,最新的 Blackwell GB200 GPU 可以為大語言模型(LLM)推理負載提供 30 倍的性能提升,而成本和能耗則降低 25 倍。
第二,算力的提升,意味着萬億級參數模型變得更為現實。
在技術支持下,一個 GB200 NVL72 最高支持 27 萬億參數的模型。而據洩露數據,GPT-4 也不過只有 1.7 萬億參數。
萬億參數模型有許多優勢,比如進行自然語言處理任務,如翻譯、問答、抽象和流暢性;掌握更長期的背景和對話能力;結合語言、視覺和語音的多模态應用;進行創意應用程式,例如講故事、詩歌生成和代碼生成;進行科學應用,例如蛋白質折疊預測和藥物發現;實現個性化,能夠形成一致的個性并記住用戶上下文。
第三,英偉達向軟硬一體化的平台發展更進一步。
英偉達推出了全新的 AI 推理伺服器 NIM(NVIDIA INFERENCE MICROSERVICE),讓所有人都可以通過這一形式自定義 AI 模型和應用。
以英偉達 NIM 和 CUDA 作為中間樞紐,連接了百萬開發者與上億 GPU 芯片。" 成熟的企業平台坐擁一座數據金礦,這些數據可以轉化為生成性 AI 副駕駛。" 黃仁勳表示," 這些容器化的 AI 微服務是我們與合作夥伴生态系統共同創造的,它們是各行各業企業成為 AI 公司的構建模塊。"
在醫療場景上,英偉達此次推出了基于醫療場景的 25 個新的微服務, 幫助全球的醫療保健公司可以基于生成式 AI 進行效率提升。英偉達舉了一個例子,與在 CPU 上運行相比,英偉達的微服務能夠将基因組分析工作流程中的變異調用速度提高了 50 倍以上。目前,全球有接近 50 家應用程式提供商正在使用英偉達的醫療微服務。對于醫療行業公司來說,他們可以基于這些微服務,篩選數萬億種藥物化合物,收集更多的患者數據以幫助早期疾病檢測,或者實施更智能的數字助理等等。
接下來,中國大模型路往何方?
過去一年,英偉達的股價從 200 多美元,上漲至現在的近 900 美元,市值超過 2.2 萬億美元。這一家公司的產品迭代速度,對人工智能的發展產生了歷史級的影響。影響力也轉化為資本市場的認可和回報。
毫無疑問,這是一個赢家通吃的行業。根據富國銀行統計,英偉達目前在數據中心 AI 市場擁有 98% 的市場份額,而 AMD 僅有 1.2% 的市場份額,英特爾則只有不到 1%。
英偉達的鮮花着錦,烈火烹油,也讓我們更為深入地思考中國大模型的現狀和未來。2023 年上半年,因為 ChatGPT 的橫空出世,中國大廠與創業公司紛紛投身大模型,一時引發 " 百模大戰 "。這又過了大半年時間,中國大模型相關的投資人和從業者,又有了市場路線與技術路線之争:
一邊是以月之暗面創始人楊植麟為代表的技術路線,他們大多技術出身,思維偏矽谷,對技術有信仰,信仰 AGI(人工通用智能)、信仰 scaling law(規模定律),更推崇前輩 OpenAI 的路徑,認為随着模型能力躍升、模型成本降低,會解鎖豐富的應用。
楊植麟在接受采訪的時候說:
"AI 不是我在接下來一兩年找到什麼 PMF(Product/Market Fit,產品 / 市場匹配),而是接下來十到二十年如何改變世界——這是兩種不同思維。
我們是堅定的長期主義者。當你實現 AGI 或更強智能,今天的一切會被改寫。PMF 固然重要,但如果着急找 PMF,你很可能又被降維打擊。降維打擊發生過太多次。以前很多人做客服、對話系統,做 slot filling(槽填充),有些規模不錯的公司。但是,全是降維打擊了,很難受。
它不是說不成立。假設你今天找到一個場景,用現在的技術能力,且從 0 到 1 增量價值巨大,從 1 到 n 空間又沒那麼大,這種場景 OK。Midjourney 就是,或者做文案生成,相對簡單一點的任務,從 0 到 1 效果又很明顯。這種是只關注應用的機會。但是,最大機會不在這。你的目的假設是商業化,你不可能脫離 AGI 去思考。我現在只做應用,那好,可能過一年你就被碾壓了。"
另一邊則是以周鴻祎、朱嘯虎為代表的市場路線,他們更加本土化,信奉尖端的科技必須經過開源、共創才能實現最大化的邊際效益,認為需将充足的 AI 能力投入可以快速變現的商業場景中進化,同時用國内市場特有的海量數據和應用場景構築壁壘。
金沙江創投董事總經理朱嘯虎接受采訪的時候說:
" 說實話在 AIGC 這波,中美差距還是非常大。美國是在底層大模型,投入越來越大,像 OpenAI 說十萬張 GPU 卡連在一起。在中國是不可能的。
美國你看 AI 的應用創新,說實話只有兩條路,一條要麼非常、非常薄,因為底層大模型太強大了,所以上面叫套殼應用。另一層是看上去很偉大,但肯定走不通的,像 Pika。這種目标很偉大,AIGC 生成視頻、電影。但這條路可能在幾年之内都看不到走通的可能性。
中國反而相反,中國在 " 當中 " 的多一點——底層大模型不夠強大,我在上面加的東西可以比較多。我在上面做增值服務,為客戶馬上能變現。這種在中國有機會。美國這種幾乎沒有,因為底層大模型太強大了,上面創業公司能做的很少。中國套殼,現在肯定沒人看的。在中國也套不了殼,因為大模型本身功能也就那樣,必須在上面有 value add。
(中國)整出 200 多個大模型有啥意義呢?沒啥意義。但在應用層有很多創新。中國在數據和應用場景上是遠遠超過美國的。"
持有相似觀點的有李彥宏、周鴻祎、王小川等一幹正在大模型之路上奮進的大佬們。
李彥宏說:" 百模大戰是對社會資源很大的浪費。不應該去卷大模型,而應該去卷應用,只有應用才真正直接創造價值。做出上億用戶使用的應用時,大模型的真正價值才得到體現。
大模型這麼火,它到底能產生多少實際的價值,過去一年我最主要就在思考這個問題,ChatGPT 大火的時候,别人問我怎麼看,我當時就說,現在這個火還有點早,真正什麼時候我們能夠做出上億用戶都在使用的應用的時候,才是它真正的價值得到了體現。"
周鴻祎還指出:" 選模型已經不是問題,而且都免費。去年大家都飙着 OpenAI,都想搞通用大模型,想壟斷全世界。但 2024 年的目标變了,是大模型如何找到自己的應用場景,而最大的應用場景就是跟各行各業結合,因為和各行各業結合才能帶來工業革命。"
他還說:" 面向傳統的 ToB、ToG 的市場,是大機會。做企業級大模型,在企業内部做私有化部署,是中國大部分企業的需要。要選擇跟企業業務深度結合的場景,也就避開了跟通用大模型的直接競争。2024 年是人工大模型的場景之年,如果找不到場景,光是在做大模型,有點像拿着錘子找釘子,如果找不到釘子,這個錘子是沒有用的。"
王小川認為,大模型開發需要強大的算力、财力和智力支持,所以 " 未來的兩年時間内,更多的是加入一家(大模型)公司,能夠獲得平台級的支持,這樣做超級應用成功的概率要大很多。"
他認為,新進入企服行業的創業者還有兩個機會:一是借着大玩家轉向困難的機會,快速反應推出它們沒做到的新產品形态;二是直接交付最終服務,比如呼叫中心就不要讓人家用你的軟體,而是直接讓話務員失業。
二者對技術判斷的一個根本分歧是,開源模型會不會有一天,縮小甚至拉平與閉源模型的差距?技術路線的觀點是,絕對不會,差距只會更大。市場路線的觀點是,一定會,那意味着你今天做閉源只會處境尴尬——世界觀的迥異,讓雙方對自我的判斷都深信不疑。
朱嘯虎就直接發問:"GPT-4 你要不要投入做科研?你做 GPT-4 科研至少砸四五千萬美金。關鍵是萬一你砸了四五千萬美金做出來,别人開源了呢?你不是全白砸了?這個是很扎心的問題。現在中國大部分公司,有幾個敢真的砸錢去研發 GPT-4 的?"
以終為始,我們的判斷是什麼?
從投資角度來看,預判大模型的終局是什麼樣的,才能有助于我們去思考市面上的哪些公司值得看好。從電商平台大戰一路看過來(有誰還記得想做平台最後一地雞毛的凡客嗎?),在科技賽道,絕大多數時候轟轟烈烈的 " 百雲大戰 "" 千團大戰 ",99% 玩家是黯然退出,只剩下赢家通吃。
縱觀這些年的赢家通吃賽道,基本可以用兩個詞概括:新平台、新基建。如何理解呢?通常這類玩家,為一個產業提供了新的平台,通過技術變革的方式建立起產業新的基礎設施——類似高速公路、水電氣等基建,讓原有的產業鏈參與者能夠加入到新平台來,享有技術變革的紅利。
什麼是大模型?第一,顧名思義是規模大,網絡參數至少要達到百億規模(現在英偉達甚至解鎖了萬億規模的算力);第二,通用性,是指不限于專門問題或領網域;第三,湧現性,即產生預料之外的新能力。大模型的大規模和通用性,決定了其将是具備普适性的 " 新平台、新基建 ",其從一個行業遷移到另一個行業的應用場景時,成本低,易遷移。
可以斷言,放在大模型這一賽道,依然将是赢家通吃的終局。
那麼,現在 " 百模大戰 " 的玩家裡,誰将笑到最後?大體來分,目前大模型的玩家有兩類,一類是大廠拉起的團隊,另一類是創業公司。這裡可以有把握地說,在這個百模大戰中,大廠優先。
我們可以參考另一個行業雲計算的發展走向。當年雲計算興起的時候,國内也出來很多創業公司玩家,但最終市場份額集中于大公司。根據 IDC 發布的 2022 年全球雲計算 IaaS 市場追蹤數據來看,市場份額 TOP10 玩家都是中美的大公司,包括美國的亞馬遜、谷歌、微軟、IBM,中國的阿裡、華為、騰訊、百度等。
後面我們會進一步分析。不過這裡先看看制約大模型的三個要素:數據、算力和算法。
先說數據。
數據是大模型發展的壓艙石,除了互聯網、物聯網數據之外,老百姓生活生產中產生的數據都是未來大模型要提升智能水平的必要數據源。目前,數據壁壘是真實存在的問題。高質量的中文語料數據對于創業公司來說是個很大的挑戰,數據的積累需要時間和經驗。對于那些常年累月通過搜索等多個互聯網、物聯網應用積累起數據的大廠來說,可以說一開始就領先了至少幾個身位。
給 AI 喂下什麼質量的數據,才能訓練和迭代出什麼水平的 AI。
目前國内 " 百模大戰 " 中諸多大模型開發者,是基于 Meta 開源的 LLaMA 等一系列開源社區的基礎代碼,來進行二次開發的。其能力差異主要由語料庫差異和少量微調等結合而成。
再說算力。
通用大模型需要 24 × 7 連續訓練,調度多個算力中心、協調資源,以雲的方式提供智能服務,這對算力有很大的需求。随着參與大模型訓練的企業越來越多,用來訓練大模型的數據量越來越大,對推理的要求也越來越高,大模型的應用會越來越廣。這就意味着,大模型公司必須擁有穩定的、靠譜的、能保障安全運轉的算力。這顯然利于在雲計算深耕布局的大廠。
當年雲計算創業公司,面臨大廠的夾擊,窄縫求生,專攻一個垂直行業的雲計算市場——比如遊戲行業。但是,遊戲行業遭遇監管重創的時候,雲計算需求也大大降低,這導致該雲計算創業公司的業務不穩定,反過來又影響使用該家公司服務的客戶。
這也是為什麼大模型和雲計算同樣是赢家通吃的原因之一——大玩家能夠提供更為穩定、可靠的服務,成為客戶的優先選擇。
最後說算法。
大模型最底層的競争力來自算法。算法需要龐大的高級人才和長期積累。
為什麼現在看起來有很多的公司做大模型呢 ? 因為現在有開源的大模型和很多公開的論文可供參考,所以起步上會簡單很多。但要做好大模型的門檻還是高的,像現在的 GPT-4 沒有公開後續技術細節,國内很多大模型就很難繼續發展。
越多的應用場景,能形成越多的反饋,從而對模型進行更好的調整;而模型也因此產生更多的經濟價值,可獲得更多的資金投入,反哺自身。
需要指出的是,大模型高昂的訓練成本和研發投入,讓眾多入局者望而生畏。有企業家斷言, 每年 5000 萬到 1 億美元的花費,只是千億級大模型訓練的入場券。某個創業者高調宣布投資 5000 萬美元入局大模型時,就有分析師發朋友圈直言說:"5000 萬美元夠幹什麼的?大模型訓練一次就花 500 萬美元,訓練 10 次?" 四個月之後,該創業公司被收購,出局。
當年共享單車也是百團大戰,打得頭破血流,結果笑到最後的是美團。無他,資金充足。在以年計、甚至以十年計的競争中,這種重資本重研發的賽道,毫無疑問是利于大公司的。
這是一場漫長的、看不到終點的長跑,競争的韌性将左右最後的結果。
以赢家通吃的終局為前提下,我們判斷是,在幾家通用大模型的基礎上,将有多個領網域的垂直大模型。龍頭企業研發通用 + 中小企業研發應用,這種模式成為破局關鍵。
在 B 端領網域,營銷、客服、數據分析、财務、人力等各個業務領網域的企業,很多都在全速接入大模型。從目前的進步來看,雖然還存在各種工程上的問題,但效果是實實在在的,的确有很大的潛力變革原來的整個產品和業務體系。
大型支付公司 Klarna 披露,它的 AI 客服現在已經能勝任 700 名員工的工作。這個 AI 客服由 OpenAI 提供支持,處理客戶的各種咨詢,支持多語言,能夠直接處理退款和退貨的請求。Klarna 表示,在短短一個月内,AI 助手就完成了 700 名全職客服的工作。
到目前為止,它已經進行了 230 萬次對話,占公司所有客戶服務對話的三分之二。它的客戶滿意度得分與人工客服「不相上下」。而且,它在解決客戶請求方面更準确、更快速。解決請求的平均時間從 11 分鍾降至 2 分鍾。
"場景優先,數據為王",則将是提供服務的大模型應用公司的核心競争力。