今天小編分享的互聯網經驗:阿裡雲CTO周靖人:全面投入更新AI大基建,歡迎閱讀。
9 月 19 日,在 2024 杭州雲栖大會上,阿裡雲 CTO 周靖人表示,阿裡雲正在圍繞 AI 時代,樹立一個 AI 基礎設施的新标準,全面更新從伺服器到計算、存儲、網絡、數據處理、模型訓練和推理平台的技術架構體系,讓數據中心成為一台超級計算機,為每個 AI 和應用提供高性能、高效的算力服務。
大會現場,通義大模型迎來了年度重磅發布。
基礎模型更新,性能媲美 GPT-4o,發布最強開源模型 Qwen2.5 系列,同時上架語言、音頻、視覺等 100 多款全模态模型,通義開源模型累計下載量已經突破 4000 萬,通義原生模型和衍生模型總數超過 5 萬,成為僅次于美國 Llama 的世界級模型群。
打造最強 AI 基建
不同于傳統 IT 時代,AI 時代對基礎設施的性能、效率要求更高,CPU 主導的計算體系已快速向 GPU 主導的 AI 計算體系轉移。阿裡雲正以 AI 為中心,全面重構底層硬體、計算、存儲、網絡、數據庫、大數據,并與 AI 場景有機适配、融合,加速模型的開發和應用,打造一個 AI 時代的最強 AI 基建。
周靖人表示:" 雲廠商擁有全棧技術儲備,并通過基礎設施的全面更新,讓 AI 訓練、推理、部署和應用整個生命周期變得更高效。"
大會現場,周靖人展示了 AI 驅動的阿裡雲全系列產品家族更新。最新上線的磐久 AI 伺服器,支持單機 16 卡、顯存 1.5T,并提供 AI 算法預測 GPU 故障,準确率達 92%;阿裡雲 ACS 首次推出 GPU 容器算力,通過拓撲感知調度,實現計算親和度和性能的提升;為 AI 設計的高性能網絡架構 HPN7.0,可穩定連接超過 10 萬個 GPU ,模型端到端訓練性能提升 10% 以上;阿裡雲 CPFS 檔案存儲,數據吞吐 20TB/s,為 AI 智算提供指數級擴展存儲能力;人工智能平台 PAI,已實現萬卡級别的訓練推理一體化彈性調度,AI 算力有效利用率超 90%。
過去兩年,模型的尺寸已增長數千倍,但模型的算力成本正在持續下降,企業使用模型的成本也越來越低。周靖人強調:" 這是 AI 基礎設施全面革新帶來的技術紅利,我們會持續投入先進 AI 基礎設施的建設,加速大模型走進千行百業。"
阿裡雲宣布通義千問三款主力模型再次大幅降價,最高降幅 85%,百萬 tokens 價格低至 0.3 元。過去半年,阿裡雲百煉平台持續降低大模型調用的門檻,進一步推動大模型的普惠。
據悉,中國一汽、聯想、微博、攜程、喜馬拉雅、三得利(中國)等 30 多萬企業客戶已經接入通義大模型;未來,生物醫藥、工業仿真、氣象預測、遊戲等行業還在加速擁抱大模型,将帶來新一輪的 AI 算力增長。
周靖人表示:" 為應對 GPU 算力的指數級增長需求,尤其是即将爆發的推理市場,阿裡雲已經準備好了。"
開放最先進的大模型
過去一年,大模型技術實現了多個裡程碑式跨越,從大語言到視頻生成到多模态模型,大模型的能力邊仍在不斷擴展,在數學、代碼及推理等能力上持續攀升。
作為業内最早布局大模型技術的科技公司之一,去年 4 月,阿裡雲發布首個大語言模型通義千問,如今通義大模型家族已全面涵蓋語言、影像、視頻、音頻等全模态,性能均跻身世界第一梯隊,同時通義模型持續開源,已成為最受企業和開發者歡迎的國產大模型。
大會現場,周靖人重磅宣布,通義旗艦模型 Qwen-Max 全方位更新,性能接近 GPT-4o;同時發布最強開源模型 Qwen2.5 系列,成為僅次于美國 Llama 的世界級模型群,此次共開源 100 款模型,創造大模型開源史上之最,讓企業和開發者以低成本的方式用上大模型。
面向編程場景,阿裡雲通義靈碼再次更新,推出全新 AI 程式員,和上一代產品不同,它同時具備架構師、開發工程師、測試工程師等多種崗位技能,能自主完成任務分解、代碼編寫、缺陷修復、測試等開發開發工作,最快分鍾級完成應用開發,幫助軟體開發提效數十倍。
百模大戰一年後,應用成為了大模型產業的主旋律。作為最早提出模型即服務(MaaS)理念的企業,阿裡雲一直把大模型生态的繁榮作為首要目标。目前,魔搭社區已成為中國最大的模型社區,擁有超 690 萬開發者用戶,與行業合作夥伴合作貢獻了超 10000 款模型。
" 我們希望企業和開發者能以最低的成本做 AI、用 AI,讓所有人都能用上最先進的大模型。" 周靖人說。