今天小編分享的互聯網經驗:大模型叙事下的百度智能雲:比創新更重要的,是創新的擴散,歡迎閲讀。
決定產業未來的關鍵因素并非只是技術創新本身,更在于誰能夠以更低成本、更高效率實現創新擴散,真正将 AI 的潛力轉化為企業和社會發展的實際生產力。
撰文|張賀飛
編輯|沈菲菲
DeepSeek 點燃了 " 引線 " 後,大模型再一次進入到了 " 爆發期 "。
短短一個多月裏,大模型的能力上限不斷被刷新," 落地 " 已然成為產業上下遊的普遍共識。
在這樣的局面下,一家企業最佳的生态位是什麼呢?
上世紀 90 年代,傑弗裏 · 摩爾在深入研究了埃弗雷特 · 羅傑斯的 " 創新擴散理論 " 後,在《跨越鴻溝》将 " 技術采用生命周期 " 的客户群體抽成了五類,分别是創新者、早期采用者、早期大眾、後期大眾和落後者。
對号入座的話,大模型正處于從早期采用者向早期多數過渡的階段,也就是 " 鴻溝 " 所在的階段。
由此來審視這輪大模型浪潮,相較于模型層的你追我趕,一場更重要的博弈在于怎麼将創新迅速 " 擴散 " 到產業中,支撐創新應用的落地。
01.
跨越算力鴻溝:一場 " 雙螺旋 " 競賽
DeepSeek 意外 " 出圈 " 後,在流量洪峰的衝擊下一度陷入了 " 崩潰循環 ",直到半個多月後才走出 " 伺服器繁忙 "。
一些想要接住 DeepSeek 流量的第三方 MaaS 平台,則在月虧 4 億的壓力下,無奈關閉了相關推理服務。
這些現象指向了同一個原因——算力瓶頸。
算力供應的不穩定,即便是 DeepSeek 這樣的團隊,也無法在短時間裏填補缺口;而算力價格的居高不下,不單單束縛了千萬使用者的手腳,MaaS 平台也深感壓力山大。
大模型想要落地到千行萬業,讓 " 智力 " 轉化為實實在在的生產力,首先要打破算力瓶頸。大模型創新擴散的鴻溝,很大程度上屬于算力鴻溝,只有打破了算力瓶頸,才能創新的擴散鋪平道路。
就在 DeepSeek 走紅的同一時間,百度智能雲對外宣布——在百舸 4.0 的能力加持下,成功點亮昆侖芯三代萬卡集群。
如果説 DeepSeek 給出了模型訓練的新思路,百舸 4.0 給出了跨越算力鴻溝的新解法:通過覆蓋大模型落地全流程的算力平台,讓用户能夠高效率、低成本使用算力。
訓練大模型的第一步是創建集群。許多人不知道的是,GPU 集群需要大量復雜、瑣碎的配置和調試,通常需要幾周時間。但基于百舸 4.0 創建集群,只需要 1 小時就可以跑起來。
完成創建集群後,真正的考驗才剛開始,因為集群的規模越大,出故障的概率就越高,運維的復雜性急劇增加。例如 Meta 訓練 Llama3 時用了 1.6 萬張 GPU 的集群,平均每 3 小時就會出一次故障。同樣是萬卡任務,百舸 4.0 可以保障有效訓練時長占比達到 99.5%,遠高于行業内公布的相關指标。
大模型訓練既要穩定,也要效率。訓練千億、萬億參數的模型,動辄需要幾周到幾個月的時間。百舸 4.0 在集群設計、任務調度、并行策略、顯存優化等方面進行了大量優化,最終讓端到端的性能提升了 30%。
同時不應該忽略的,還有百舸 4.0 的多芯混訓、多芯适配能力。能夠把同一廠商不同代際芯片、不同廠商的芯片統一管理,混布成一個集群高效完成模型的訓練和推理任務。
按照百度智能雲官方公布的數據:在萬卡規模上,百舸 4.0 将兩種芯片混合訓練的效率折損控制在了 5% 以内;某金融機構在百舸的支持下,完成了不同型号 GPU 資源的部署、上線,有力保障了 6000 多次訓練任務。
古代打仗講求 " 兵馬未動糧草先行 ",放到大模型產業同樣适用,其中的算力就是 " 糧草 "。想要大模型深入落地到千行萬業,勢必要開啓一場追求高效率和低成本的 " 雙螺旋 " 競賽。
可以找到的一個實戰案例是:春節假期結束時,有近 20 家芯片企業在忙着适配 DeepSeek,在百舸 4.0 的賦能下,百度的昆侖芯是國内率先支持單機部署滿血版 DeepSeekR1 的芯片,單機 8 卡配置便可實現 2437tokens/s 吞吐,并給出了業内最低的價格。
02.
吹響落地号角,工程能力見真章
和每次產業革命初期一樣,創新的擴散始于 " 早期采用者 ",往往是創新意識比較明确且有能力進行智能化轉型的大中型企業。
某種程度上説,大中型企業的選擇,更能折射出真實的市場需求,更能從中洞察到創新的方向。
曾有媒體統計了 "2024 全年大模型相關得標項目 ",一共有 910 個項目,得標金額約為 25.2 億元。其中百度智能雲斬獲了 55 個項目,得標金額 3.4 億元,在能源、政務、金融等行業的得標數量位于所有廠商第一。
到了 2025 年 1 月,公開數據統計到的大模型相關得標項目數量已經達到 125 個,項目金額為 12.67 億元。百度
智能雲實現了得標項目數量和得標金額上的雙第一,得標金額 4.17 億元,占到了全行業的三分之一。
為什麼會出現這樣的局面?
國際權威咨詢機構弗若斯特沙利文進行了深入的市場調研後,在《2024 年中國大模型行業應用優秀案例白皮書》給出了解釋:企業用户在大模型落地的主要需求點包含完善的落地指導、先進的產品架構、全面的安全治理以及開放的生态支持,百度智能雲代表的 AI 雲廠商在技術生态、行業經驗和服務能力方面具備顯著優勢,能夠以高效率、低成本的方式加速大模型的推廣與行業應用。
原因依然離不開 " 高效率和低成本 "。
進一步從技術層面剖析的話,和百度智能雲的全棧 AI 技術能力不無關系。
百度是國内為數不多同時深耕芯片、框架、模型、應用的企業,能夠針對大模型的訓推、部署和調優等進行全流程優化。比如昆侖芯三代萬卡集群,在行業内率先驗證了可以通過模型優化、并行策略、有效訓練率提升、動态資源分配等手段,将訓練、微調、推理任務混合部署,進而最大化提升集群綜合利用率,降低部門算力成本的可行性。
在大模型進入全球視野的第四年,早已形成了兩個戰場:第一個戰場是大模型訓練,第二個戰場是大模型落地。
特别是在 " 百模大戰 " 格局瓦解,大模型的牌桌上僅剩下百度、阿裏、DeepSeek、智譜等少數玩家後,越來越多企業将注意力集中到了應用層,思考怎麼将技術可能性轉化為穩定生產力,讨論如何通過标準化流程、工具鏈支撐和全生命周期管理,解決大模型開發與部署中的效率、成本和質量矛盾。
在百度智能雲的示範下,雲廠商競賽的升維已然是可以預見的結果,倒逼全行業提升工程能力,從底層芯片、智算平台、大模型等多個維度進行布局,推進全棧創新與快速迭代。
也就是説,落地應用的号角吹響後,競争的天平進一步向 " 擴散 " 傾斜,不單單是算力之争、模型之争,而是工程能力的比拼:誰能借助系統性的技術體系和方法論降低成本、提升大模型落地易用性、幫助企業更好地構建 AI 原生應用,誰才有機會成為最後的赢家。
03.
長跑才剛開始,算力仍是重頭戲
按照 " 創新擴散理論 ",一旦跨越了從早期采用者到早期大眾擴散的 " 鴻溝 ",市場将會進入到高速增長階段。
2024 年被公認是大模型推理應用的元年,2025 年注定是落地生花的一年,從央國企先行逐漸演變成一股不可逆的產業浪潮。對算力的需求,将呈現出指數級的增長态勢。
折射到 AI 基礎設施的布局上,點亮昆侖芯三代萬卡集群的百度智能雲并未停下來,還将進一步點亮 3 萬卡集群。百度集團執行副總裁、百度智能雲事業群總裁沈抖曾公開表示:" 百舸 4.0 正是為部署 10 萬卡大規模集群而設計的,目前已經具備了成熟的 10 萬卡集群部署和管理能力。"
不只是百度智能雲,國外的 xAI、Meta、OpenAI 等都在積極布局 10 萬卡乃至更大規模的智算集群。
個中原因并不難理解。
一方面,大模型的 Scaling Law 仍在繼續,大模型競賽本質依然是算力競賽,能否解決跨地網域部署、多芯混訓以及集群穩定性等問題,關系着是否能滿足源源不斷的算力需求,是否有參與大模型競賽的資格。
另一方面,比創新更重要的,是創新的擴散。大模型賦能千行萬業的過程中,需要根據不同企業的需求動态分配計算資源,提高資源利用率的同時,降低雲服務的成本,10 萬卡乃至更大規模的集群至關重要。
參考每次工業革命的時間跨度,大模型的產業競賽,更像是一場考驗耐力的馬拉松。擅長耐力賽的百度,正以一種兼顧技術創新與產業落地的獨特節奏,穩步推動大模型從創新走向產業應用。
正如 World Governments Summit 2025 峰會上的一幕,當阿聯酋 AI 部長奧馬爾詢問 " 如何看待數據中心和 AI 基礎設施的未來 " 時,百度創始人李彥宏笃定地回答道:" 我們仍需對芯片、數據中心和雲基礎設施進行持續投入,用于打造更好、更智能的下一代模型。"
主理人 | 張賀飛(Alter)
前媒體人、公關,現專職科技自媒體
钛媒體、36kr、創業邦、福布斯中國等專欄作者
轉載、商務、開白以及讀者交流,請聯系個人微信「imhefei」