今天小編分享的互聯網經驗:DeepSeek崛起,算力需求重構進行時,歡迎閱讀。
DeepSeek 爆火之後,一個普遍的誤讀是——大模型算力存在泡沫,有過剩的風險。
在 DeepSeek-V3 和 R1 模型之前,大模型行業信奉 " 算力即權力,規模即護城河 " 的邏輯,當 DeepSeek 用不到同行十分之一的價格訓練出效果更優的大模型,自然引起了對大模型算力邏輯的懷疑。
于是一方面,英偉達等傳統算力巨頭的股價,一度因市場對 " 算力需求下降 " 的擔憂而暴跌;另一方面,國產算力企業如海光信息、華為昇騰等因适配 DeepSeek 模型,或者股價飙升或者備受關注。
這種割裂表明,業界對大模型算力的認知已從 " 規模至上 " 轉向 " 效率優先 ",但算力需求的本質并未被消解,而是以更復雜的形式重構。
算力需求下降?是,也不是
DeepSeek 此番熱潮的最大貢獻,不在于單純的算法優化,而是大幅降低了大模型的門檻,相當于一次全方位的大模型能力下探和普及。
以往相同能力的大模型要麼效果不佳,要麼采取了閉源收費的策略,例如 GPT-4o,OpenAI 沒有公布 GPT-4o 的技術細節,而是直接開展商業化,如今在 DeepSeek 的衝擊下又不得不改變策略。同時,DeepSeek 足夠低的成本也讓更多用戶有了嘗鮮大模型的動力。
中信建投表示,DeepSeek R1 通過較少算力實現高性能模型表現,主要原因是 DeepSeek R1 實現算法、框架和硬體的優化協同。
DeepSeek R1 在諸多維度上進行了大量優化,算法層面引入專家混合模型、多頭隐式注意力、多 token 預測,框架層面實現 FP8 混合精度訓練,硬體層面采用優化的流水線并行策略,同時高效配置專家分發與跨節點通信,實現最優效率配置。
當前階段大模型行業正處于從傳統的生成式模型向深度推理模型過渡階段,算力的整體需求也從預訓練階段逐步過渡向後訓練和推理側,通過大量協同優化,DeepSeek R1 在特定發展階段通過較少算力實現高性能模型表現,算力行業的長期增長邏輯并未受到挑戰。
行業一開始擔心算力需求會下降,某種程度上是正确的,因為單一模型的訓練和推理算力需求在下降,但是由此所帶來的技術普及,是更大的算力需求。
由此帶來的算力需求呈現分化狀态,其一,基礎大模型的競争并沒有停歇,钛媒體 App 了解到,雖然一小部分玩家退出了預訓練,但是字節跳動、阿裡巴巴等基礎大模型頭部玩家還在加碼預訓練,只有更先進的基礎模型,才有更高性價比的推理模型,高端算力仍将保持增長。
其二,AI 應用普及帶來的推理算力需求,DeepSeek 的全球日活用戶從 34.7 萬飙升至 1.19 億僅用一個月,盡管單個模型推理成本降低,但用戶規模和場景復雜度的大幅擴張,使得整體算力消耗不降反升。
大模型算力的 " 傑文斯悖論 "
1865 年,經濟學家威廉 · 斯坦利 · 傑文斯提出了一個悖論:當技術進步提高了效率,資源消耗不僅沒有減少,反而激增。
例如,瓦特改良的蒸汽機讓煤炭燃燒更加高效,但結果卻是煤炭需求飙升;汽車發動機的效率提高了,汽油的總消耗量反而增加了;放到如今,就是 AI 算力支撐大模型的效率更高了,但算力的需求也進入到了新一輪的上升周期。
有外媒将 DeepSeek 描述為斯普特尼克時刻,即蘇聯先于美國發射第一顆人造衛星,但其實這更像是谷歌提出雲計算概念的那一刻,谷歌展示了分布式算法是如何把計算機網絡連接在一起,并實現了價格和性能的最優解。
彼時其他所有的科技公司在做些什麼?大概是不斷購買 " 高端算力 ",在當時就是 SUN 等公司提供的伺服器,如今 SUN 已經消失在歷史,歷史總是驚人的相似,卻不是簡單的重復,產業的新故事繼續上演。
AI 產業需要類似這樣的時刻,而且是越多越好,DeepSeek 的開源戰略推動其模型快速滲透至教育、醫療、金融等垂直領網域,AI 應用正在遍地開花。
例如,其視覺語言融合模型 DeepSeek-VL2 在工業質檢中的部署,需要實時處理高分辨率影像數據;代碼生成模型 DeepSeek-Coder 則需支撐全球開發者的高頻調用。這些場景對低延遲、高并發的需求,迫使算力基礎設施持續更新。
再以某電商平台為例,其客服系統引入 DeepSeek 後,日均處理咨詢量從百萬級躍升至千萬級,對應的 GPU 集群規模需擴容 3 倍以上。
國產算力還沒到慶祝的時候
無論願意與否,DeepSeek 都成為了中國 AI 產業的一張名片,行業自然會聯想到國產 AI 算力的進展,畢竟 DeepSeek 對單一算力需求降低,低算力的國產芯片可以在推理端有所發揮。
從行業視角來看,DeepSeek 對國產算力确實是極大的利好,國產 AI 算力廠商紛紛宣布适配,包括昇騰、海光、壁仞科技、海光信息、摩爾線程、沐曦、燧原科技、天數智芯等廠商。
但在國產芯片的融合方面,其實 DeepSeek 和其他國内大模型,甚至海外開源大模型并沒有太多本質差别,DeepSeek 的訓練也是基于英偉達芯片,其推理很大程度上依然運行在英偉達 GPU 上。
一位國内 AI 芯片人士對钛媒體 App 表示,從算法的角度來說,國產 AI 芯片廠商核心是要走出一條不同的路,關鍵是底層的架構要符合市場,上層硬體使能的軟體要整體适用。設計出來以後,才能把硬體發揮好性能,這是第一步。
第二步,軟體要做到足夠的标準化以及足夠的開放,讓大家把性能挖掘出來,現在國產大部分廠商也面臨着一些現狀,大量的硬體廠商使用現成的架構,但是沒有底層優化的能力。
也有行業人士提到,國產 AI 的勝負手不在于單一技術優勢,而在于生态開放性、需求創造性、產業鏈協同性的復合競争力。
未來算力競争将呈現三大趨勢,效率競賽轉向場景戰争,誰能更低成本激活邊緣場景,誰将主導市場;硬體霸權讓位于架構主權,模型定義硬體的能力比芯片制程更重要;國產替代更新為全球規則,中國通過 DeepSeek 驗證的軟硬協同路徑,或成為全球 AI 算力新範式。
總體而言,DeepSeek 給國產 AI 算力打了一針強心劑,以往硬體⽣态系統封閉且互不兼容,不同芯⽚有着不同的架構和相應⼯具鏈,能不能在 DeepSeek 甚至之後的先進模型影響之下,趨于統一和标準化。
DeepSeek 讓大家更清晰認識到,或許在智能時代,最關鍵的資源不是芯片,而是人的創造力。(本文首發于钛媒體 APP,作者 | 張帥,編輯 | 蓋虹達)