今天小编分享的科技经验:英伟达、AMD加单 HBM出现缺货涨价 又一半导体巨头加入扩产,欢迎阅读。
《科创板日报》7 月 7 日讯(编辑 郑远方)据台湾电子时报援引业内人士消息称,由于人工智能伺服器需求激增,高带宽内存(HBM)价格已开始上涨。
目前,全球前三大存储芯片制造商正将更多产能转移至生产 HBM,但由于调整产能需要时间,很难迅速增加 HBM 产量,预计未来两年 HBM 供应仍将紧张。
另据韩媒报道,三星计划投资 1 万亿韩元(约合 7.6 亿美元)扩产 HBM,目标明年底之前将 HBM 产能提高一倍,公司已下达主要设备订单。
据悉,三星已收到 AMD 与英伟达的订单,以增加 HBM 供应。
本次三星将在天安工厂展开扩产,该厂主要负责半导体封装等后道工艺。HBM 主要是通过垂直堆叠多个 DRAM 来提高数据处理速度,因此只有增加后段设备才能扩大出货量。三星计划生产目前正在供应的 HBM2 和 HBM2E 等产品,并计划于下半年量产 8 层堆叠 HBM3 和 12 层 HBM3E。
值得一提的是,6 月已有报道指出,另一存储芯片巨头 SK 海力士已着手扩建 HBM 产线,目标将 HBM 产能翻倍。扩产焦点在于 HBM3,SK 海力士正在准备投资后段工艺设备,将扩建封装 HBM3 的利川工厂。预计到今年年末,后段工艺设备规模将增加近一倍。
本次韩媒报道指出,SK 海力士的这一投资金额大约也在 1 万亿韩元(约合 7.6 亿美元)水平。
业内预计,明年三星与 SK 海力士都将进一步扩大投资规模。由于谷歌、苹果、微软等科技巨头都在筹划扩大 AI 服务,HBM 需求自然水涨船高,"若想满足未来需求,三星、SK 海力士都必须将产能提高 10 倍以上。"
▌主流 AI 训练芯片 " 标配 " HBM 或迎量价齐升
实际上,2023 年开年后三星、SK 海力士的 HBM 订单快速增加,之前另有消息称 HBM3 较 DRAM 价格上涨 5 倍。
随着 AI 技术不断发展,AI 训练、推理所需计算量呈指数级增长,2012 年至今计算量已扩大 30 万倍。处理 AI 大模型的海量数据,需要宽广的传输 " 高速公路 " 即带宽来吞吐数据。
HBM 通过垂直连接多个 DRAM,显著提高数据处理速度。它们与 CPU、GPU 协同工作,可以极大提高伺服器性能。其带宽相比 DRAM 大幅提升,例如 SK 海力士的 HBM3 产品带宽高达 819GB/s。同时,得益于 TSV 技术,HBM 的芯片面积较 GDDR 大幅节省。
国盛证券指出,HBM 最适用于 AI 训练、推理的存储芯片。受 AI 伺服器增长拉动,HBM 需求有望在 2027 年增长至超过 6000 万片。Omdia 则预计,2025 年 HBM 市场规模可达 25 亿美元。
广发证券也补充称,HBM 方案目前已演进为高性能计算领網域扩展高带宽的主流方案,并逐渐成为主流 AI 训练芯片的标配。
AIGC 时代为 HBM 带来的需求增量主要体现在两方面:
一方面,单颗 GPU 需要配置的单个 HBM 的 Die 层数增加、HBM 个数增加;另一方面,大模型训练需求提升拉动对 AI 伺服器和 AI 芯片需求,HBM 在 2023 年将需求明显增加,价格也随之提升。