今天小編分享的科技經驗:AI大模型催生海量算力需求 HBM正進入黃金時代,歡迎閱讀。
SK 海力士 3 月 19 日在一份聲明中表示,公司已開始量產高帶寬内存產品 HBM3E,将從本月下旬起向客戶供貨。此外,近日,花旗發布報告稱,預計美光科技将在 2024 年 3 月 20 日公布的第二财季(F2Q24)财報數據超出市場共識預期,主要是由于 DRAM(動态随機存取内存)價格上漲以及與 Nvidia AI 系統配套的高帶寬内存(HBM)出貨量增加。花旗将美光目标價從 95 美元大幅調高至 150 美元。
AI 大模型的興起催生了海量算力需求,而數據處理量和傳輸速率大幅提升,使 AI 伺服器對芯片内存容量和傳輸帶寬提出了更高的要求,而 HBM 作為一種專為高性能計算設計的存儲器,其市場需求激增。華福證券楊鍾表示,HBM 是 AI 芯片最強輔助,正進入黃金時代。與 GDDR 相比,HBM 在單體可擴展容量、帶寬、功耗上整體更有優勢,相同功耗下其帶寬是 DDR5 的三倍以上。因此,HBM 突破了内存瓶頸,成為當前 AIGPU 存儲單元的理想方案和關鍵部件。TrendForce 認為,高端 AI 伺服器 GPU 搭載 HBM 芯片已成主流,2023 年全球搭載 HBM 總容量将達 2.9 億 GB,同比增長近 60%,2024 年将再增長 30%。
據财聯社主題庫顯示,相關上市公司中:
江波龍的内存條業務(包括 DDR4DDR5 等)正常開展當中,公司具備晶圓高堆疊封裝(即 HBM 技術的一部分)的量產能力。
華海誠科顆粒狀環氧塑封料(GMC ) 可以用于 HBM 的封裝,相關產品已通過客戶驗證。