今天小编分享的互联网经验:DeepSeek崛起,算力需求重构进行时,欢迎阅读。
DeepSeek 爆火之后,一个普遍的误读是——大模型算力存在泡沫,有过剩的风险。
在 DeepSeek-V3 和 R1 模型之前,大模型行业信奉 " 算力即权力,规模即护城河 " 的逻辑,当 DeepSeek 用不到同行十分之一的价格训练出效果更优的大模型,自然引起了对大模型算力逻辑的怀疑。
于是一方面,英伟达等传统算力巨头的股价,一度因市场对 " 算力需求下降 " 的担忧而暴跌;另一方面,国产算力企业如海光信息、华为昇腾等因适配 DeepSeek 模型,或者股价飙升或者备受关注。
这种割裂表明,业界对大模型算力的认知已从 " 规模至上 " 转向 " 效率优先 ",但算力需求的本质并未被消解,而是以更复杂的形式重构。
算力需求下降?是,也不是
DeepSeek 此番热潮的最大贡献,不在于单纯的算法优化,而是大幅降低了大模型的门槛,相当于一次全方位的大模型能力下探和普及。
以往相同能力的大模型要么效果不佳,要么采取了闭源收费的策略,例如 GPT-4o,OpenAI 没有公布 GPT-4o 的技术细节,而是直接开展商业化,如今在 DeepSeek 的冲击下又不得不改变策略。同时,DeepSeek 足够低的成本也让更多用户有了尝鲜大模型的动力。
中信建投表示,DeepSeek R1 通过较少算力实现高性能模型表现,主要原因是 DeepSeek R1 实现算法、框架和硬體的优化协同。
DeepSeek R1 在诸多维度上进行了大量优化,算法层面引入专家混合模型、多头隐式注意力、多 token 预测,框架层面实现 FP8 混合精度训练,硬體层面采用优化的流水线并行策略,同时高效配置专家分发与跨节点通信,实现最优效率配置。
当前阶段大模型行业正处于从传统的生成式模型向深度推理模型过渡阶段,算力的整体需求也从预训练阶段逐步过渡向后训练和推理侧,通过大量协同优化,DeepSeek R1 在特定发展阶段通过较少算力实现高性能模型表现,算力行业的长期增长逻辑并未受到挑战。
行业一开始担心算力需求会下降,某种程度上是正确的,因为单一模型的训练和推理算力需求在下降,但是由此所带来的技术普及,是更大的算力需求。
由此带来的算力需求呈现分化状态,其一,基础大模型的竞争并没有停歇,钛媒体 App 了解到,虽然一小部分玩家退出了预训练,但是字节跳动、阿里巴巴等基础大模型头部玩家还在加码预训练,只有更先进的基础模型,才有更高性价比的推理模型,高端算力仍将保持增长。
其二,AI 应用普及带来的推理算力需求,DeepSeek 的全球日活用户从 34.7 万飙升至 1.19 亿仅用一个月,尽管单个模型推理成本降低,但用户规模和场景复杂度的大幅扩张,使得整体算力消耗不降反升。
大模型算力的 " 杰文斯悖论 "
1865 年,经济学家威廉 · 斯坦利 · 杰文斯提出了一个悖论:当技术进步提高了效率,资源消耗不仅没有减少,反而激增。
例如,瓦特改良的蒸汽机让煤炭燃烧更加高效,但结果却是煤炭需求飙升;汽车发动机的效率提高了,汽油的总消耗量反而增加了;放到如今,就是 AI 算力支撑大模型的效率更高了,但算力的需求也进入到了新一轮的上升周期。
有外媒将 DeepSeek 描述为斯普特尼克时刻,即苏联先于美国发射第一颗人造卫星,但其实这更像是谷歌提出云计算概念的那一刻,谷歌展示了分布式算法是如何把计算机网络连接在一起,并实现了价格和性能的最优解。
彼时其他所有的科技公司在做些什么?大概是不断购买 " 高端算力 ",在当时就是 SUN 等公司提供的伺服器,如今 SUN 已经消失在历史,历史总是惊人的相似,却不是简单的重复,产业的新故事继续上演。
AI 产业需要类似这样的时刻,而且是越多越好,DeepSeek 的开源战略推动其模型快速渗透至教育、医疗、金融等垂直领網域,AI 应用正在遍地开花。
例如,其视觉语言融合模型 DeepSeek-VL2 在工业质检中的部署,需要实时处理高分辨率影像数据;代码生成模型 DeepSeek-Coder 则需支撑全球开发者的高频调用。这些场景对低延迟、高并发的需求,迫使算力基础设施持续更新。
再以某电商平台为例,其客服系统引入 DeepSeek 后,日均处理咨询量从百万级跃升至千万级,对应的 GPU 集群规模需扩容 3 倍以上。
国产算力还没到庆祝的时候
无论愿意与否,DeepSeek 都成为了中国 AI 产业的一张名片,行业自然会联想到国产 AI 算力的进展,毕竟 DeepSeek 对单一算力需求降低,低算力的国产芯片可以在推理端有所发挥。
从行业视角来看,DeepSeek 对国产算力确实是极大的利好,国产 AI 算力厂商纷纷宣布适配,包括昇腾、海光、壁仞科技、海光信息、摩尔线程、沐曦、燧原科技、天数智芯等厂商。
但在国产芯片的融合方面,其实 DeepSeek 和其他国内大模型,甚至海外开源大模型并没有太多本质差别,DeepSeek 的训练也是基于英伟达芯片,其推理很大程度上依然运行在英伟达 GPU 上。
一位国内 AI 芯片人士对钛媒体 App 表示,从算法的角度来说,国产 AI 芯片厂商核心是要走出一条不同的路,关键是底层的架构要符合市场,上层硬體使能的軟體要整体适用。设计出来以后,才能把硬體发挥好性能,这是第一步。
第二步,軟體要做到足够的标准化以及足够的开放,让大家把性能挖掘出来,现在国产大部分厂商也面临着一些现状,大量的硬體厂商使用现成的架构,但是没有底层优化的能力。
也有行业人士提到,国产 AI 的胜负手不在于单一技术优势,而在于生态开放性、需求创造性、产业链协同性的复合竞争力。
未来算力竞争将呈现三大趋势,效率竞赛转向场景战争,谁能更低成本激活边缘场景,谁将主导市场;硬體霸权让位于架构主权,模型定义硬體的能力比芯片制程更重要;国产替代更新为全球规则,中国通过 DeepSeek 验证的软硬协同路径,或成为全球 AI 算力新范式。
总体而言,DeepSeek 给国产 AI 算力打了一针强心剂,以往硬體⽣态系统封闭且互不兼容,不同芯⽚有着不同的架构和相应⼯具链,能不能在 DeepSeek 甚至之后的先进模型影响之下,趋于统一和标准化。
DeepSeek 让大家更清晰认识到,或许在智能时代,最关键的资源不是芯片,而是人的创造力。(本文首发于钛媒体 APP,作者 | 张帅,编辑 | 盖虹达)