今天小編分享的互聯網經驗:英特爾通過替代產品規避英偉達在大語言模型領網域的主導地位,歡迎閲讀。
近年來,随着人工智能的廣泛應用,底層計算芯片的需求不斷增加。與傳統 CPU 相比,GPU 更适合此類任務,因為它們提供了更好的性能,并在 AI 計算市場上搶得先機。
對此,在 WAIC 2023 期間,英特爾公司高級首席 AI 工程師、網絡與邊緣事業部中國區首席技術官張宇認為,推動本輪人工智能發展最核心的要素,實際上是計算、通訊和存儲技術的不斷提升。無論是大模型還是融合 AI,實際上邊緣在整個 AI 生态系統中扮演着非常重要的角色。
張宇表示,「随着行業數字化轉型,人們對于敏捷連接,實時業務以及應用智能等方面的訴求,推動了邊緣人工智能的發展。但是邊緣人工智能目前絕大部分的應用還處于邊緣推理階段。也就是説我們要利用大量數據以及極大算力在數據中心訓練一個模型,我們把訓練的結果推送到前端去執行一個推理操作。這是目前絕大部分在邊緣實現人工智能的使用模式。」
張宇觀察當前 AI 大型語言模型(LLM)的商業進展,仍未發現特别成功的商業模式和持久的使用場景,認為 LLM 的商業模式仍在摸索中。他進一步表示,目前 AI 訓練市場的主流方案是英偉達高階 GPU 無疑。
因此,英特爾計劃推廣專用 AI 芯片進行訓練并不容易,但英特爾仍計劃将旗下 AI 芯片 Habana Gaudi 2 引進中國市場,這一款產品将是落實英特爾 AI 戰略的關鍵一環。
英特爾 2019 年底斥資 20 億美元收購以色列初創芯片企業 Habana,如今成了另辟蹊徑挑戰英偉達的利器。張宇表示,專門針對 LLM 訓練任務設計的 Habana Gaudi 2 芯片,是試圖打破主流 GPU 方案的嘗試。
張宇認為,網絡互連對 LLM 的訓練推理任務也同樣重要,英特爾将以自身在網絡技術領網域的累積,試圖解決 AI 大型語言模型的網絡瓶頸問題。
此外,英特爾在 FPGA 方案基礎上開發基礎設施處理器(IPU),本質上也就是 DPU,而英特爾嘗試提高網絡傳輸的考靠性,該功能也包含在其即将發表的新一代 IPU 產品中。
來源:站長之家