今天小編分享的科技經驗:英偉達、AMD加單 HBM出現缺貨漲價 又一半導體巨頭加入擴產,歡迎閲讀。
《科創板日報》7 月 7 日訊(編輯 鄭遠方)據台灣電子時報援引業内人士消息稱,由于人工智能伺服器需求激增,高帶寬内存(HBM)價格已開始上漲。
目前,全球前三大存儲芯片制造商正将更多產能轉移至生產 HBM,但由于調整產能需要時間,很難迅速增加 HBM 產量,預計未來兩年 HBM 供應仍将緊張。
另據韓媒報道,三星計劃投資 1 萬億韓元(約合 7.6 億美元)擴產 HBM,目标明年底之前将 HBM 產能提高一倍,公司已下達主要設備訂單。
據悉,三星已收到 AMD 與英偉達的訂單,以增加 HBM 供應。
本次三星将在天安工廠展開擴產,該廠主要負責半導體封裝等後道工藝。HBM 主要是通過垂直堆疊多個 DRAM 來提高數據處理速度,因此只有增加後段設備才能擴大出貨量。三星計劃生產目前正在供應的 HBM2 和 HBM2E 等產品,并計劃于下半年量產 8 層堆疊 HBM3 和 12 層 HBM3E。
值得一提的是,6 月已有報道指出,另一存儲芯片巨頭 SK 海力士已着手擴建 HBM 產線,目标将 HBM 產能翻倍。擴產焦點在于 HBM3,SK 海力士正在準備投資後段工藝設備,将擴建封裝 HBM3 的利川工廠。預計到今年年末,後段工藝設備規模将增加近一倍。
本次韓媒報道指出,SK 海力士的這一投資金額大約也在 1 萬億韓元(約合 7.6 億美元)水平。
業内預計,明年三星與 SK 海力士都将進一步擴大投資規模。由于谷歌、蘋果、微軟等科技巨頭都在籌劃擴大 AI 服務,HBM 需求自然水漲船高,"若想滿足未來需求,三星、SK 海力士都必須将產能提高 10 倍以上。"
▌主流 AI 訓練芯片 " 标配 " HBM 或迎量價齊升
實際上,2023 年開年後三星、SK 海力士的 HBM 訂單快速增加,之前另有消息稱 HBM3 較 DRAM 價格上漲 5 倍。
随着 AI 技術不斷發展,AI 訓練、推理所需計算量呈指數級增長,2012 年至今計算量已擴大 30 萬倍。處理 AI 大模型的海量數據,需要寬廣的傳輸 " 高速公路 " 即帶寬來吞吐數據。
HBM 通過垂直連接多個 DRAM,顯著提高數據處理速度。它們與 CPU、GPU 協同工作,可以極大提高伺服器性能。其帶寬相比 DRAM 大幅提升,例如 SK 海力士的 HBM3 產品帶寬高達 819GB/s。同時,得益于 TSV 技術,HBM 的芯片面積較 GDDR 大幅節省。
國盛證券指出,HBM 最适用于 AI 訓練、推理的存儲芯片。受 AI 伺服器增長拉動,HBM 需求有望在 2027 年增長至超過 6000 萬片。Omdia 則預計,2025 年 HBM 市場規模可達 25 億美元。
廣發證券也補充稱,HBM 方案目前已演進為高性能計算領網域擴展高帶寬的主流方案,并逐漸成為主流 AI 訓練芯片的标配。
AIGC 時代為 HBM 帶來的需求增量主要體現在兩方面:
一方面,單顆 GPU 需要配置的單個 HBM 的 Die 層數增加、HBM 個數增加;另一方面,大模型訓練需求提升拉動對 AI 伺服器和 AI 芯片需求,HBM 在 2023 年将需求明顯增加,價格也随之提升。