今天小編分享的科技經驗:2024年終AI盤點:基礎設施高歌猛進 混合式AI解決方案加速落地,歡迎閱讀。
現如今,人工智能正以前所未有的速度和深度改變生產生活方式,成為推動經濟社會發展的重要動力。據 IDC 預測,到 2030 年,人工智能将為全球經濟貢獻 19.9 萬億美元,推動 2030 年全球 GDP 增長 3.5%。縱觀 2024 年全年,AI 的熱度不但沒有消散,反而又一次迎來了令人矚目的爆發式增長,接下來,就讓我們一起回顧這不平凡的一年。
1 AI 硬體強勢崛起,數據中心蓄勢待發
眾所周知,算力是人工智能三要素中至關重要的組成部分,作為數字經濟時代的關鍵生產力要素,算力的賦能作用日益凸顯,已成為驅動各行業變革的核心力量。但不可否認的是,算力的強弱很大程度上受到底層硬體的限制,而今年的 AI 硬體也呈現出百花齊放的态勢。
GPU:依然是最重要的算力基礎
雖然 GPU 最初是為了處理圖形和影像而設計的,但随着人工智能的興起,其強大的并行計算能力被發現非常适合處理 AI 所需的大量數據和復雜計算。AI 算力則是衡量計算機處理人工智能任務的能力,它直接影響着 AI 模型的訓練速度和性能表現。
根據 TechInsights 的數據,2023 年全球全球數據中心 GPU 出貨量達到 385 萬顆,其中英偉達出貨量 376 萬顆,市占率超過了 97%,今年雖然沒有具體的數據,但僅在上半年,英偉達就銷售了價值近 420 億美元的 AI 和 HPC GPU,而全年其運算 GPU 的銷售額可能超過 900 億美元。
雖說英偉達在今年并沒有如大家期待中那般推出新的旗艦 GPU 芯片 B300/GB300,但我們仍然可以從已經曝光的數據中一窺其恐怖的實力:根據已曝光的消息,B300 的顯存規格會進一步提升到 288GB,同時引入了 LPCAMM 内存模塊設計,并具備高達 1.6Tbps 的帶寬。
至于其市場表現究竟如何,就得等到明年才能見分曉了。
CPU:并未被 AI 時代遺忘
提起 AI 訓練和 AI 推理,很多人都會想起更擅長處理大量并行任務的 GPU,卻在一定程度上忽略了 CPU 的價值,事實上,目前的 AI 應用實際上可以分為兩大類,一類是基于 GPU 的重負載訓練應用,另一類則是對延遲和能效更加敏感的輕應用,對這類應用而言,通過使用 CPU 混合精度即可實現的推理吞吐量反而能帶來更高的靈活性和更具優勢的 TCO,以英特爾在 9 月份推出的至強 6 性能核處理器為例,該處理器專門為 AI、數據分析、科學計算等計算密集型業務而生,并且在性能、内核密度、内存和 I/O 創新都有十分明顯的突破。
特别是在内存帶寬方面,至強 6900P 系列處理器擁有 12 通道的内存,内存規格支持 DDR5 6400 或者 MRDIMM 8800,相比上一代實現了大幅提升,這使得至強 6900P 系列處理器的每個核心擁有了更加充裕的内存帶寬,更加有利于核心性能的釋放,從而在生成式 AI、深度學習、機器學習、推理訓練等場景中獲得更好的表現。
不但如此,至強 6 性能核處理器内置的 AMX 加速器也在此前支持 BF16 和 int8 數據類型的基礎上引入了 FP16 的數據精度,這也為 AI 推理和訓練提供了更多精度上的選擇。
可以看到,CPU 不僅沒有被邊緣化,反而持續更新以适應這些變化,并做出了重要改變。
存儲:" 意料之外 " 的赢家
AI 時代下,算力的重要性毋庸置疑,但數據存儲作為 AI 的 " 第三支柱 ",同樣也在 AI 的全生命周期内發揮着重要作用,尤其是在生成式 AI 爆火的大背景下,包括影像、視頻、音頻在内的非結構化數據會不可避免地呈現出爆炸式增長的态勢,根據 IDC 的調研結果,預計到 2028 年,每年產生的數據總量會接近 400ZB。
在數據量不斷增長的趨勢下,數據存儲技術對于人工智能數據周期中不同階段基礎設施和工作負載的容量、性能、能耗效益以及成本效益都至關重要,具體來說,在人工智能數據周期的原始數據存檔,内容存儲環節,需要從各種來源安全高效地收集并存儲原始數據,以用于訓練模型,這一階段收集的數據質量和多樣性至關重要,為後續的所有階段奠定了基礎。由于查找和收集數據需要大容量存儲,所以在此階段,可以經濟高效地存儲巨量規模化數據,且具備更低 TCO 的大容量企業級 HDD(eHDD)通常是建立深度内容資源庫的理想選擇。
而在 AI 模型訓練階段,模型會在高性能的超級計算機平台上進行反復訓練,而訓練效率在很大程度上取決于最大化 GPU 利用率和專門的高性能存儲。由于這一階段的工作負載對計算性能的要求極高,因此最理想的存儲方案是高性能、低容量、以計算為目的的企業級 磁碟。
因此,無論是 HDD 還是 磁碟,都在今年迎來了自己的 " 高光時刻 "。
在不久之前,Solidigm 推出了 122.88TB 的 D5-P5336QLC 磁碟,是目前行業裡容量密度最高的 QLC 磁碟 產品,相比于傳統的 HDD JBOD 或者替換 TLC 磁碟 JBOD 的方案可以實現 4-8 倍空間占用的節約,同時在總功耗、散熱、電力等方面都有非常出色的表現,因此十分适用于内容分發網絡、通用伺服器混合負載、對象存儲等工作負載。
西部數據則針對高性能存儲需求推出了首款企業級 PCIe Gen 5.0 解決方案:SanDisk DC SN861 NVMe 磁碟,該產品不僅提供 U.2、E1.S 和 E3.S 三種規格,并支持 NVMe 2.0 和 NVMe MI 1.2c 規範以及 OCP 2.0 标準,充分确保了可擴展性和靈活性,容量最高則達到了 16TB,非常适合各類數據密集型應用。
至于希捷,則在今年推出了 Mozaic3+(魔彩盒 3+)平台,該平台使用與 PMR 硬碟基本相同的材料組件,大幅增加容量,使數據中心能夠顯著降低存儲采購和運營成本。目前,基于該平台的硬碟單碟容量已經達到了 3TB 以上,未來幾年内單碟将達到 4TB+ 和 5TB+,整體容量也會達到 50TB,可以高效地滿足 TCO 成本和規模化擴展等方面的需求。
當然,除了上述硬體之外,FPGA、ASIC 也成為了 AI 計算領網域的黑馬,預計在明年,随着技術的進步和市場的發展,它們也會發揮越來越重要的作用,由于篇幅有限,筆者在這裡就不再贅述。
2 混合式 AI 解決方案加速落地,大模型迎來新一輪洗牌
毫無疑問的是,AI 技術展現的巨大潛力和價值正在推動企業加速擁抱 AI 技術,根據聯想此前發布的《2024 年全球首席信息官報告》,全球 61% 的企業首席信息官(CIO)認為證明 AI 投資的投資回報率(ROI)極具挑戰性。随着人工智能等技術不斷滲透到個人與企業的真實應用場景,AI 下半場從技術突破進入到落地應用的階段,混合式人工智能已成為 AI 價值落地的必然路徑。
不過要注意的是,由于混合式人工智能的設計、部署、管理和維護要更加復雜,因此,提供全面產品以及解決方案和服務的能力就顯得十分重要。而這也是聯想、英特爾、IBM、華為等科技巨頭最為擅長的。
以聯想為例,在今年 10 月份,聯想與英偉達共同推出了聯想人工智能快速啟動、聯想人工智能應用庫、人工智能數據和技術基礎架構等在内的全新混合式 AI 解決方案及服務,能夠以高效、便捷和專業的方式,充分幫助企業實現 AI 技術落地到業務中的商業價值。
具體來說,基于 NVIDIA AI Enterprise 軟體平台的聯想人工智能快速啟動服務可以助力企業組織在數周内證明個人 AI、企業 AI 和公共 AI 平台用例的商業價值;聯想人工智能應用庫則集合了諸多企業通用領網域及垂直行業的 AI 智能體,可為企業營銷、IT 運維、法務、客戶服務等多個業務場景提供 AI 解決方案;人工智能數據和技術基礎架構解決方案與服務則能幫助企業評估其平台的 AI 準備情況,并能通過切實可行且經濟高效的措施,來優化和搭建其所需的數據、應用和雲技術等 IT 基礎設施。
基于聯想全棧 AI 的戰略布局,其設備和基礎設施作為全新混合式人工智能解決方案的重要載體,也正加速與 AI 的融合。聯想正不斷擴展其 AI 終端產品組合,通過包含 PC、伺服器、工作站等一系列強大的 AI 設備和基礎設施組合,與解決方案的緊密結合,使企業能夠快速實現強大、負責任且可持續的人工智能。比如在 AI 基礎設施方面,聯想将自研的海神(Neptune)液冷技術不斷迭代擴展至更多伺服器設備,并将支持 NVIDIA 領先的加速計算平台,助力人工智能新時代企業實現更高的能源效率和可持續發展。
行業落地方面,聯想攜手貝智基金,在香港愛培學校率先設立香港首個 AI 輔助學習中心,通過人工智能等技術惠及更多有特殊教育需求的兒童。全新成立的 AI 輔助學習中心配備了聯想 AI 硬體及計算機視覺、自然語言處理和機器人流程自動化(RPA)等在内的混合式 AI 技術,幫助确保貝智基金的治療師和教育工作者能夠為數量持續增長的特殊教育需求兒童提供及時、定制化的支援。
在聯想 AI 輔助學習中心,原先繁瑣和容易出錯的人手數據收集、記錄及回應評分已經實現完全自動化,通過實時數據收集及跨學科分析,生成個性化的學習計劃,使治療師們更專注于與特殊教育需求學生的直接互動、及時幹預、建立更深層次的師生關系。這種高度自動化的流程也讓志願者能夠通過接受培訓成為課堂導師,并由經驗豐富的 ABA 治療師遠程指導和監督。這一定程度上也緩解了專業治療師資源匮乏的問題。
通過整合聯想的語音、物體、手勢識别技術與貝智基金的環境和學生情緒識别傳感器,治療師能夠提供更精确的學生課堂表現評估,并從龐大的 ABA 數據庫中選擇最合适的後續課程任務建議。此外,聯想不僅提供了邊緣伺服器和 AIPC 來支持 ABA 治療的 AI 模型運行,還提供智能白板作為互動式教學輔助工具,提升治療師的教學互動性和吸引力。
據統計,在 AI 技術的加持下,這次合作使得愛培學校的整體治療效率顯著提升了 116%,個性化的教育培養模式也從一對一拓展到一對多,從而讓更多的特殊兒童得到受益。
而大模型則在今年迎來了新一輪的洗牌,根據中國信通院的數據,截止今年 7 月,全球 AI 大模型數量就達到了 1328 個(包含同一企業、同一模型的不同參數版本),美國的 AI 大模型數量位居第一位,占比 44%,位居第二位的中國大模型數量占比為 36%。
盡管中國和美國在大模型領網域呈現出雙強格局,但客觀來看,中國依然處于追趕狀态,尤其在底層技術上,中國科技公司相對薄弱,并且從 2023 年至今,幾乎所有的頭部科技公司都在強調 " 預訓練模型 ",也就是通過長期堆算力和數據,将模型訓練成接近通用的基座大模型。
作為這兩年 " 最燒錢 " 的生意,大模型今年也在 " 商業化 " 的強需求中迎來了新一輪的洗牌,以字節跳動推出的豆包大模型為例,雖然最初推出是在 2023 年,但在豆包大模型推出以後,字節跳動又緊鑼密鼓地發布了 Doubao-pro、Seed-TTS、Seed-ASR、Seed-Music、視頻生成模型、視覺理解模型等多項重磅成果,在語言能力、多模态理解與生成、模型推理、代碼生成等方面不斷提升。到 2024 年 12 月,豆包大模型通用模型能力已經全面對齊 GPT-4o,在 FlagEval 模型評測的 " 對話模型 " 榜單中,豆包 -pro32k 版本已經位列第一。
當然,更值得關注的是價格,豆包視覺模型比行業平均價格低 85%,單價為 0.003 元,這也讓視覺理解模型首次進入 " 厘時代 "。
而亞馬遜雲科技則是在不久前的 re:Invent 大會期間推出了 Amazon Nova 系列模型,包括文生文模型 Nova Micro,低成本多模态模型 Nova Lite,在準确性、速度和成本間實現平衡的 Nova Pro、可處理復雜推理任務的 Nova Premier、新一代影像生成模型 Amazon Nova Canvas 以及新一代視頻生成模型 Amazon Nova Reel。從而向客戶提供一個能夠支持規模化推理的平台,以充分應用亞馬遜雲科技的推理能力,并幫助客戶用好自己的私有化數據,實現性能、安全和成本方面的平衡。
而這兩天最受矚目的莫過于 DeepSeek V3 的發布,其在超低訓練成本的前提下實現了和 GPT-4o、Claude 3.5 相當的性能水平,堪比小米加步槍戰勝了飛機大炮,根據官方論文,在架構方面,DeepSeek V3 采用了創新的負載均衡策略和訓練目标,同時在後訓練方面,DeepSeekV3 引入了一種創新方法,将推理能力從長思維鏈模型(DeepSeek R1)中,蒸餾到标準模型上。這在顯著提高推理性能的同時,保持了 DeepSeek V3 的輸出風格和長度控制。因此,通過在算法、框架和硬體方面的協同優化,DeepSeek V3 的訓練成本變得非常經濟,實現了令人驚嘆的成果。
今年已經接近尾聲,但大模型的洗牌仍未結束,對眾多科技公司而言,在基礎大模型上的新投入會逐漸轉向實際應用和商業化,價格戰等搶占市場的動作還将會持續很長時間,屆時能夠留下來的才是最後的赢家。
結語
進入 AI 時代,AI 帶來的經濟價值正逐步被驗證,充分利用 AI 技術的力量實現新增長是企業在未來競争中脫穎而出的關鍵。無論是底層的基礎設施還是上層的行業應用,今年來自各個科技公司的更新和發布都在為我們帶來驚喜,但這并不意味着 AI 的發展已經趨于成熟,如果說 2024 年的這些突破是一首交響樂,那麼我們現在聽到的,也僅僅是序曲的前幾個音符,更宏大的主旋律才剛剛拉開帷幕。