今天小编分享的科技经验:算力突围:DeepSeek搅动AI芯片格局,欢迎阅读。
以下文章来源于 RimeData 来觅数据 ,作者来觅研究院
导读:北京时间 2 月 27 日,英伟达正式发布 2024 年第四季度财报,其总营收 393.31 亿美元,同比增长 78%。同时英伟达预计下一季度营收 430 亿美元,同比增长 13%,超出市场预期的 420 亿美元。这一份财报有力的回击了市场关于 AI 芯片市场可能下滑的传言。而这场传言的 " 始作俑者 ",正是中国 AI 公司 DeepSeek。DeepSeek 如何硬撼整个 AI 芯片市场?市场格局将会如何变化?AI 芯片目前投融现状如何?本文尝试分析和探讨。
01 进击的 DeepSeek
DeepSeek 的成功远不止此。据 Nextplatform 等媒体报道,DeepSeek-R1 在训练方面使用了约 2000 张英伟达 H800GPU;在推理层面,DeepSeek-R1 采用混合专家架构,推理时仅激活约 10% 的参数量,大幅降低计算资源消耗。简而言之,DeepSeek 通过模型创新和算法优化,以数十分之一的成本达到接近 OpenAI 开发的 ChatGPT-o1 模型的性能,影响了全球科技巨头的战略布局。
图表 1:DeepSeek-R1 基准测试结果对比 ChatGPT-o1 模型(部門:%)
数据来源:公开资料、RimeData 来觅数据整理
长期以来,AI 大模型的发展遵循着 Scaling Laws。这一规律指出,当模型参数规模、训练数据量和 AI 芯片同步扩大时,模型的智能表现会呈现指数级跃升,甚至出现 " 智能涌现 " 现象。简而言之,越想训练出优秀的大模型,就需要越多的 AI 芯片。过去几年,科技巨头争相买入 AI 芯片,以期望能训练出超越同行的 AI 大模型。然而,DeepSeek 的低成本方案却打破了这一叙事。
首当其冲受到影响的就是英伟达。其在 2025 年 1 月 27 日股价一度下跌超过 20%,市值蒸发约 6000 亿美元。美国投资人 Jeffrey Emanuel 表示,DeepSeek 的低成本路线摧毁了 Scaling Laws,行业长期存在算力浪费,硬體优势可能被效率优化取代。
然而,事实真的如此吗?
众所周知,大模型可以划分为训练和推理两个阶段,前者的目标是通过向模型输入大量数据,优化调参,得到一个可用的模型,后者是利用训练好的模型来解决实际问题。DeepSeek 的创新是以捷径降低训练成本,而面向广大下游的推理场景,缺口仍然存在。
事实上,训练成本每年都在降低。美国著名投资人 Cathy Wood 表示,AI 训练成本正以年均 75%-78% 的速度急剧下降,这一趋势远超传统行业预期。成本下降的来源取决于硬體效率提升(如英伟达 Blackwell 架构)、算法优化(如 MoE 混合专家模型)及开源生态的繁荣。DeepSeek 让训练成本大幅下降,但却并非唯一因素。
Cathy Wood 还认为,低成本训练能力使初创企业和中型科技公司能够以更低成本参与 AI 竞争,直接促进 AI 在医疗、金融、自动驾驶等领網域的落地。而下游推理市场的百花齐放,也正需要无穷无尽的算力。从某种意义上来说,DeepSeek 加速了 AI 芯片市场从训练到推理的转移,而推理所需的 AI 芯片,毫无疑问是更大的市场。
英伟达 CEO 黄仁勋表示,AI 市场的竞争焦点正从训练转向推理,而推理阶段的算力需求将远超预期。在昨日的第四季度业绩说明会上,他表示未来推理市场将会是现在训练市场的百万倍。同时,他提出 " 第三扩展定律 ",即模型在生成高质量回答前需进行多次迭代推理,这一过程本质是计算密集型的。而 AI 应用的爆发(如自动驾驶、医疗诊断)将推动推理算力需求持续攀升,DeepSeek 的普及反而会因降低行业门槛扩大整体市场规模。
在讨论 DeepSeek 是否会讨论算力市场骤降之前,我们可能忽略了一个前提,DeepSeek-R1 并非终局。DeepSeek-R1 仅仅是一个对话模型,不具备多模态功能,并且离终极目标 AGI 也相差甚远。针对推理的 AI 芯片固然会迎来大发展,而 ChatGPT-5、DeepSeek-R2、Grok-4 等海内外优秀的大模型尚在迭代,针对训练的 AI 芯片也会维持高速增长。
02 云厂商在做什么
美股著名投资人 Aswath Damodaran 表示,中国 AI 公司 DeepSeek 的出现改变了 AI 行业格局,可能会使 AI 市场出现分化,一部分是商品化且竞争激烈的低等级 AI 产品,另一部分是高端产品。同时,他将 AI 芯片市场规模预期从 5000 亿美元砍至 3000 亿美元,DeepSeek 引发的效率革命将终结算力泡沫,AI 芯片市场的增长可能并不像之前市场预期的那么乐观。
然而,这一观点迅速被科技巨头的财报驳斥。从常理上看,DeepSeek 起码在短期内降低了 AI 芯片的需求,然而谷歌、微软、亚马逊、Meta 这四大云厂商的资本开支却显示,2025 年的资本开支将会达到 3000 亿美元,较 2024 年还增长了约 800 亿美元,远超市场预期。
图表 2:北美四大云厂商资本开支(部門:亿美元)
数据来源:公开资料、RimeData 来觅数据整理
作为 AI 芯片的主要购买者,云厂商的资本开支无疑提供了市场的前瞻指标。其中,Meta 表示 2025 年全年资本开支将在 600 至 650 亿美元之间,较 2024 年大幅增长超 50% 以上。这一增长主要集中在 AI 基础设施和数据中心的投资上。谷歌更是表示,尽管有 DeepSeek 等低成本开源模型的出现,但全球范围内更便宜的 AI 兴起,只会增加这项技术的采用率,而谷歌将由于其数十亿用户的规模而受益。
归根结底,技术门槛下降也会推动市场整体规模的扩大。根据杰文斯悖论,技术进步提高资源使用效率后,反而可能因成本降低、应用范围扩大而导致总消耗量增加。举一个不恰当的例子,内燃机热效率提升本应减少燃料需求,但实际中,更高效的内燃机促使更多车辆上路,反而增加了对石油及煤炭的总需求。
无独有偶,在中国市场也呈现出类似的趋势。阿里巴巴于 2025 年 2 月 20 日公布 2024 年第四季度财报,其四季度资本开支达 317.75 亿元,同比增长 259%,环比增长 80%,创历史新高。阿里巴巴同时宣布未来三年将投入 3800 亿元用于云和 AI 基础设施建设,这一规模超过其过去十年的总和。
此外,部分媒体及分析机构报道称,字节跳动 2025 年资本开支预算可能在 1500-1600 亿元人民币之间,其中超过一半预算将用于 AI 算力采购,这一规模将较 2024 年增长超过 100%。腾讯、百度等互联网大厂亦有可能大幅提升资本开支以应对日益激烈的 AI 竞赛。
在更有性价比的 DeepSeek 之后,以云厂商为代表的 AI 芯片需求不但没有下降,反而进一步上升,这也同时代表了 2025 年或将成为 AI 应用下游大爆发的一年。
03 AI 芯片投融情况
由于众所周知的原因,目前国内 AI 芯片较海外主流产品仍有差距。DeepSeek 通过算法优化提升了硬體效率,降低了对高端 GPU 的依赖,促使国产芯片厂商转向开发低成本、高效能的推理芯片。这显著提升了国内 AI 芯片的投融热度。以国产 GPU 公司象帝先为例,其在去年 9 月份宣布由于融资计划受阻,公司进入重整期。在 DeepSeek-R1 火热发布后,象帝先重启了融资计划,并启动了招聘计划。
德勤预测,2025 年全球 AI 芯片市场规模将超 1500 亿美元,2027 年有望增至 4000 亿美元。AI 伺服器占超大规模云服务商伺服器支出的 60%,数据中心需求激增推动芯片迭代。除了大规模云伺服器外,中国市场亦存在部分政企客户本地部署的需求,如一体机类型的产品表现亮眼,也可能推动国内 AI 芯片迅猛发展。
下表是我们整理的 2025 年以来 AI 芯片发生的相关投融事件,可以看到赛道明显升温,知名机构与产业资本争相投入。从交易轮次上看,融资主要集中在后期事件,投小投新相对较少,这主要是由于在激烈竞争的背景下,资本更看重广阔赛道的确定性。感兴趣的读者,可以登录 Rime PEVC 平台获取 AI 芯片赛道全量融资案例、被投项目及深度数据分析。
图表 3:2025 年以来中国 AI 芯片领網域投融情况
数据来源:RimeData 来觅数据
近期热文推荐
医疗器械
产业互联网
本文内容基于来觅数据认为可信的公开资料或实地调研资料,我们力求本文内容的客观、公正,但对本文中所载的信息、观点及数据的准确性、可靠性、时效性及完整性不作任何明确或隐含的保证,亦不负相关法律责任。受研究方法和数据获取资源的限制,本报告全部内容仅供参考之用,对任何人的投资、商业决策、法律等操作均不构成任何建议。在任何情况下,对因参考本报告造成的任何影响和后果,来觅数据均不承担任何责任。
>