今天小编分享的科技经验:AI大模型催生海量算力需求 HBM正进入黄金时代,欢迎阅读。
SK 海力士 3 月 19 日在一份声明中表示,公司已开始量产高带宽内存产品 HBM3E,将从本月下旬起向客户供货。此外,近日,花旗发布报告称,预计美光科技将在 2024 年 3 月 20 日公布的第二财季(F2Q24)财报数据超出市场共识预期,主要是由于 DRAM(动态随机存取内存)价格上涨以及与 Nvidia AI 系统配套的高带宽内存(HBM)出货量增加。花旗将美光目标价从 95 美元大幅调高至 150 美元。
AI 大模型的兴起催生了海量算力需求,而数据处理量和传输速率大幅提升,使 AI 伺服器对芯片内存容量和传输带宽提出了更高的要求,而 HBM 作为一种专为高性能计算设计的存储器,其市场需求激增。华福证券杨钟表示,HBM 是 AI 芯片最强辅助,正进入黄金时代。与 GDDR 相比,HBM 在单体可扩展容量、带宽、功耗上整体更有优势,相同功耗下其带宽是 DDR5 的三倍以上。因此,HBM 突破了内存瓶颈,成为当前 AIGPU 存储单元的理想方案和关键部件。TrendForce 认为,高端 AI 伺服器 GPU 搭载 HBM 芯片已成主流,2023 年全球搭载 HBM 总容量将达 2.9 亿 GB,同比增长近 60%,2024 年将再增长 30%。
据财联社主题库显示,相关上市公司中:
江波龙的内存条业务(包括 DDR4DDR5 等)正常开展当中,公司具备晶圆高堆叠封装(即 HBM 技术的一部分)的量产能力。
华海诚科颗粒状环氧塑封料(GMC ) 可以用于 HBM 的封装,相关产品已通过客户验证。