今天小編分享的科技經驗:美光确認啓動“生產可用”版 12 層堆疊 HBM3E 36GB 内存交付,歡迎閲讀。
IT 之家 9 月 6 日消息,美光在本月發布的技術博客中表示,其 " 生產可用 "(IT 之家注:原文 production-capable)的 12 層堆疊 HBM3E 36GB 内存現正向主要行業合作夥伴交付,以在整個 AI 生态系統中進行驗證。
美光表示,其 12 層堆疊 HBM3E 容量較現有的 8 層堆疊 HBM3E 產品高出 50%,允許 Llama-70B 這樣的大型 AI 模型在單個處理器上運行,可避免多處理器運行帶來的延遲問題。
美光 12 層堆疊 HBM3E 内存具有 9.2+ Gb/s 的 I/O 引腳速率,可提供 1.2+ TB/s 的内存帶寬。美光同時還宣稱該產品較友商 8 層堆疊 HBM3E 競品功耗明顯更低。
HBM3E 并非孤立產品,而是集成在 AI 芯片系統中,這仰賴于内存供應商、產品客户與 OSAT 企業的通力合作。而美光是台積電 3DFabric 先進封裝聯盟的合作夥伴成員。
台積電生态系統與聯盟管理處處長 Dan Kochpatcharin 近日表示:
台積電與美光一直保持着長期的戰略合作夥伴關系。作為 OIP 生态系統的一部分,我們密切合作,使美光基于 HBM3E 的系統與 CoWoS 封裝設計能夠支持客户的人工智能創新。