今天小编分享的科技经验:内存芯片的疯狂或将在2024年重演,欢迎阅读。
糟糕的 2023 年已经过去,存储芯片市场正在酝酿一场新的爆发。
据 TrendForce 统计,2023 年第四季度,全球 DRAM(内存)和 NAND 闪存的价格约上涨 3%~8%。相对于 PC 市场而言,伺服器 DRAM 市场对增长起到更大作用。
2024 年,随着运算速度的提升,DRAM 和 NAND 闪存在各类 AI 应用,如智能手机、伺服器、笔电的单机平均搭载容量都会增长,其中,伺服器应用的增长幅度最高。
智能手机方面,2023 年,由于供过于求,存储器价格快速下跌,由于价格很低,推升了 2023 年智能手机 DRAM 单机平均搭载容量年增 17.5%。2024 年,在没有新应用推出的预期下,智能手机 DRAM 的单机平均搭载容量的增长幅度将放缓,预估为 11%。
伺服器方面,伴随 AI 伺服器需求持续增加,高端 AI 芯片陆续推出,由于训练是目前 AI 市场主流,其采用的存储器是以有助于高速运算的 DRAM 为主,与 NAND 闪存相比,DRAM 的单机平均搭载容量增长幅度更高,预计年增 17.3%。
笔电方面,预计搭载新款 CPU 的笔电要到下半年才会陆续推出,对拉高存储器容量的帮助有限,另外,AI PC 要求 DRAM 容量加大至 16GB,预计笔电 DRAM 的单机平均搭载容量年增率约为 12.4%。
01
AI 伺服器带动 DDR5 和 HBM 加速前进
DDR5 加速渗透
AI 大模型持续迭代更新,参数持续增长,大模型的参数规模越大,算力负担越重,而 AI 伺服器是算力的核心。2023 年,AI 伺服器(搭载 GPU、FPGA、ASIC 等高算力芯片)出货量近 120 万台,年增 38.4%,占整体伺服器出货量的 9%,按照这个势头发展下去,2026 年将占到 15% 的市场份额。
更多的大模型参数需要大容量、高速的内存支持,美光在法说会上表示,一台 AI 伺服器的 DRAM 使用量是普通伺服器的 6-8 倍。到 2026 年,预计伺服器 DRAM(不含 HBM)市场规模有望达到 321 亿美元。
针对 AI 伺服器的高性能要求,更强大的内存—— DDR5 需求随之提升。与 DDR4 相比,DDR5 具备更高速度、更大容量和更低能耗等特点。DDR5 内存的最高传输速率达 6.4Gbps,比 DDR4 高出一倍。
内存接口芯片是伺服器内存模组的核心逻辑器件,作为伺服器 CPU 存取内存数据的必由通路,其主要作用是提升内存数据访问的速度和稳定性,满足伺服器 CPU 对内存模组日益增长的高性能和大容量需求。
随着 DDR 内存技术向 DDR5 演进,内存接口芯片的用量也在增加。英特尔和 AMD 支持 DDR5 的新平台推出后,伺服器 DDR5 又出现了 PMIC 匹配问题,使得 DDR5 的市场规模不能快速提升,新平台的推出受阻,目前,DRAM 原厂和 PMIC 厂商都已着手解决该问题。虽然短期内原厂 DDR5 供应受阻,但由于 PMIC 供应厂商较多,切换及适配不会成为 DDR5 渗透率提升的瓶颈,伺服器 DDR5 渗透率有望于今年达到 30% 左右。随着 AI 伺服器的加速发展以及 PMIC 良率问题逐步得到解决,DDR5 渗透率有望进一步提升,2026 年将达到 85%。
存算一体落地之前,HBM 将唱主角
目前,GPU 主流内存方案为 GDDR 和 HBM(高带宽内存)两种,其中,GDDR 在 SoC 周围有大量外设,该方案已经从 GDDR5 更新为 GDDR6,以提高带宽。但是,如果 GDDR 要增加 1GB 的带宽,将会带来更多功耗,不利于系统性能提升。
HBM 方案作为近存计算的典型技术,可以改善存算分离导致的 " 存储墙 " 问题,即存储单元的带宽问题、存储单元与计算单元数据传输的能效问题,并且,HBM 中 Die 裸片的垂直堆叠也增大了容量。因此,在存算一体真正落地之前,HBM 技术是契合当前 GPU 对更多内存、更高带宽需求的最佳方案。
HBM 的特点是大容量、高带宽(带宽用于衡量 DRAM 传输数据的速率,是核心技术指标),它将多个 DDR 裸片堆叠在一起后和 GPU 封装在一起,实现大容量、高位宽的 DDR 组合阵列。
2013 年,SK 海力士率先推出 HBM1,HBM1 每个堆栈的带宽为 128GB/s、支持 4 个 DRAM 堆栈集成,容量为每堆栈 4GB。2017 年,SK 海力士推出了 HBM2,它的带宽和容量与 HBM1 相比实现翻倍增长。2018 年,JEDEC 推出了 HBM2e 规范,HBM2e 可以实现每堆栈 461GB/s 的带宽。SK 海力士于 2022 上半年开始量产 HBM3,带宽达到 819.2 GB/s,支持 12 个 DRAM 堆栈集成,容量达每堆栈 24GB。2023 年,主流市场需求从 HBM2e 转向 HBM3,HBM3 需求占比提升至 39%,随着使用 HBM3 的加速芯片陆续放量,预计 2024 年 HBM3 的市场需求占比将达到 60%。
2023 年底,英伟达发布了 DGX GH200,进一步推升了 AI 伺服器对内存性能的需求,DGX GH200 共链接了 256 个 Grace Hopper 超级芯片,具有 144TB 的共享内存,GH200 单卡配备了 480GB LPDDR5 内存和 96GB 的 HBM 显存,而在上一代 DGX H100 伺服器中,平均单个 H100 芯片对应 256GB 内存和 80GB 的 HBM。二者对比,GH200 方案的内存容量有显著提升。
TrendForce 认为,英伟达正在规划更多 HBM 供应商,美光(Micron)、SK 海力士、三星都已于 2023 年陆续提供了 8hi(24GB)样品,三星的 HBM3(24GB)已经在 2023 年底完成验证。三大内存原厂的 HBM3e 规划和进度如下表所示。
由于 HBM 的验证过程繁琐,预计耗时两个季度,以上三大内存原厂都预计于 2024 年第一季完成验证。各原厂的 HBM3e 验证结果,也将决定英伟达 2024 年 HBM 供应商的采购权重分配。
展望 2024 年,需要观察各 AI 芯片供应商的项目进度。
英伟达 2023 年的高端 AI 芯片(采用 HBM 的)的既有产品为 A100、A800 和 H100、H800,2024 年,除了上述型号外,该公司还将推出使用 6 个 HBM3e 的 H200 和 8 个 HBM3e 的 B100,并同步整合自家基于 Arm 架构的 CPU,推出 GH200 和 GB200。
2024 年,AMD 将重点出货 MI300 系列,采用 HBM3,下一代 MI350 将采用 HBM3e,将在 2024 下半年开始进行 HBM 验证,预计大规模量产时间将出现在 2025 年第一季度。
英特尔方面,2022 下半年推出了 Habana Gaudi 2,采用 6 个 HBM2e,预计 2024 年新型号 Gaudi 3 将继续采取 HBM2e,但用量将更新至 8 个。
02
三大内存原厂的表现
不久前,SK 海力士公布了 HBM 发展路线图,该公司副总裁 Kim Chun-hwan 透露,计划在 2024 上半年量产 HBM3e,并向客户交付 8 层堆叠样品,在 6 层堆栈 HBM3e 配置中,每层堆栈可提供 1.2 TB/s 的通信带宽,8 层堆叠将进一步提升 HBM 内存的带宽。
Kim Chun-hwan 表示,在不断更新的客户期望的推动下,存储行业正在面临激烈的生存竞争。随着制程工艺节点的缩小接近极限,存储器厂商越来越关注新一代存储架构和工艺,以给客户应用系统提供更高的性能。为此,SK 海力士已经启动了 HBM4 的开发,计划于 2025 年提供样品,并于次年量产。
根据美光提供的信息,与前几代 HBM 相比,HBM4 每层堆栈的理论峰值带宽将超过 1.5 TB/s。为了实现这样的带宽,在保持合理功耗的同时,HBM4 的目标是实现大约 6GT/s 的数据传输速率。
三星也有发展 HBM4 的时间表,计划于 2025 年提供样品,并于 2026 年量产。据三星高管 Jaejune Kim 透露,该公司 HBM 产量的一半以上是定制化产品,未来,定制 HBM 方案的市场规模将进一步扩大。通过逻辑集成,量身定制的 HBM 对于满足客户个性化需求至关重要。
三星和 SK 海力士之间的竞争正在升温。
一些市场观察人士表示,三星在 HBM 芯片开发方面落后于 SK 海力士,为了在新接口标准 CXL 开发中占据优势地位,三星加快了技术研发和产品布局。
三星电子执行副总裁兼美国内存业务主管 Lee Jung-bae 在一篇博客文章中表示,该公司将扩大 32GB DDR5 及 1TB 模块产能,他表示:" 我们将积极利用 CXL 内存模块 ( CMM ) 等新型接口,这将有助于实现内存带宽和容量可以根据运营需求无缝扩展。"
SK 海力士也表示,计划加大对高带宽内存和 DDR5 芯片的投资,以适应人工智能市场的增长需求。" 与 2023 年相比,2024 年的资本支出将有所增加。…… 我们将最大限度地提升资金利用效率 ",SK 海力士副总裁兼首席财务官金宇贤表示:" 在 2023 年投资金额的范围内,我们根据产品优先顺序调整了资本支出,2024 年,我们将更多地关注转换制程工艺,而不只是增加产能。"
金宇贤表示,SK 海力士将努力扩大第四代和第五代 10nm 级制程内存芯片的比例,到 2024 年底,这些新品将占据该公司 DRAM 产量的一半以上。不过,他表示,要达到 2022 年第四季度的产能水平,还需要相当长时间。
SK 海力士对引领 HBM 市场充满信心,预测未来 5 年的年均增长率将达到 60%~80%。该公司 DRAM 营销主管 Park Myung-soo 表示:" 我们 2024 年的 HBM3 和 HBM3e 芯片产能已经售罄。根据客户和市场观察人士的说法,我们的 HBM3 产能份额非常高。"
据 TrendForce 统计,2023 年第三季度,SK 海力士挤下三星电子,成为全球最大的伺服器 DRAM 厂商。报告显示,2023 年第三季度,SK 海力士伺服器 DRAM 销售额达到 18.5 亿美元,拿下 49.6% 的市场份额,稳居全球龙头宝座,排名第二的三星电子,在该季度的伺服器 DRAM 销售额为 13.13 亿美元,市占率为 35.2%,同期内,美光的伺服器 DRAM 销售额为 5.6 亿美元,市占率为 15.0%,排名第三。
需要指出是,以上统计数字仅是传统伺服器搭载的 DDR5 内存,不包括用于 AI 伺服器的 HBM,若将 HBM 销售计算在内,SK 海力士领先三星电子的幅度会更大。
2024 年 1 月 24 日,SK 海力士发布了 FY2023 财报,营收为 32.77 万亿韩元,同比下降 27%。单看 FY2023Q4 表现,营收为 11.31 万亿韩元,同比增长 47%,环比增长 25%。DRAM 业务 Q4 营收 7.35 万亿韩元,同比增长 49.15%,环比增长 20.98%。该公司在 FY2023 年 Q4 扭亏为盈,业绩开始全面反弹。SK 海力士表示,自 FY2023 年 Q4 开始,该公司用于 AI 伺服器和移动端的产品需求都在增长,平均售价上升,存储器市场环境有所改善。整个 FY2023,该公司的 DRAM 凭借技术实力积极响应了客户需求,主力产品 DDR5 和 HBM3 的收入同比分别增长 4 倍和 5 倍。
就整体 DRAM 模块市场而言,三星电子仍稳居 DRAM 霸主地位,但 SK 海力士正在急起直追。据 Omdia 统计,2023 年第三季度,三星电子在 DRAM 领網域市占率为 39.4%,SK 海力士以 35% 的市占率居次位,美光排名第三,市占率为 21.5%。
排名内存行业第三位的美光也在加紧布局 AI 伺服器市场,该公司计划在 2024 年第一季度量产 HBM3e,以抢攻英伟达的超级计算机 DGX GH200 商机。美光技术开发事业部资深副总裁 Naga Chandrasekaran 表示,采用 EUV 技术量产的 1-gamma 制程产品,正在研发过程中,预计于 2025 年量产。
业界人士指出,在 HBM 产品开发方面,虽然美光落后三星和 SK 海力士近一年时间,但在新一代 HBM3e 产品开发和量产进度方面,该公司加快了节奏,有望在 HBM 竞赛中扳回一城。
03
结语
通过分析全球芯片市场不同细分领網域的年度销售数据,包括存储器、微处理器、逻辑电路、模拟电路、分立器件和光电子器件,结合不同领網域年度销售额同比增速的趋势,按照一轮周期中同比增速的最小值为周期底部、同比增速的最大值为周期顶部,可以得出以下结论:2002 年、2008 年、2011 年、2015 年、2019 年、2023 年是半导体行业周期底部,2004 年、2010 年、2014 年、2017 年、2021 年是周期顶部。全球半导体市场大约每隔 4~5 年经历一轮周期,不同细分领網域周期底部时间点略有差别。
在上述所有半导体细分领網域中,存储器周期波动最大,在上行周期的顶部,2010 年、2017 年存储器销售额同比增长分别为 55%、61%,在下行周期的底部,2002 年、2019 年存储器销售额同比下降了 30%、33%。据 WSTS 统计,2022 年全球半导体销售额为 5741 亿美元,其中,存储器销售额为 1298 亿美元,占全球半导体销售总额的 22.6%,在过去 20 年内,存储器长期占半导体销售总额比重的 20% 以上。因此,存储器是集成电路中销售额最大的细分领網域,在整个产业中占据核心地位,存储器市场变化周期是影响半导体周期的主要因素。
DRAM 的上一轮周期在 2017 年 12 月左右见顶,在 2019 年 12 月触底,下行周期持续时间在两年时间,随后经历了一年半左右的上行周期,上一轮周期持续了 3-4 年。本轮 DRAM 周期在 2021 年 4 月左右见顶,在 2023 年 9 月触底,10 月价格反弹。本轮下行周期持续时间已达两年半,新一轮的 DRAM 上行周期已经开始。
或许在 2024 和 2025 年,内存市场有望掀起新一波需求热潮,重现 2017 和 2018 年辉煌的市场景象。