今天小编分享的互联网经验:阿里云CTO周靖人:全面投入更新AI大基建,欢迎阅读。
9 月 19 日,在 2024 杭州云栖大会上,阿里云 CTO 周靖人表示,阿里云正在围绕 AI 时代,树立一个 AI 基础设施的新标准,全面更新从伺服器到计算、存储、网络、数据处理、模型训练和推理平台的技术架构体系,让数据中心成为一台超级计算机,为每个 AI 和应用提供高性能、高效的算力服务。
大会现场,通义大模型迎来了年度重磅发布。
基础模型更新,性能媲美 GPT-4o,发布最强开源模型 Qwen2.5 系列,同时上架语言、音频、视觉等 100 多款全模态模型,通义开源模型累计下载量已经突破 4000 万,通义原生模型和衍生模型总数超过 5 万,成为仅次于美国 Llama 的世界级模型群。
打造最强 AI 基建
不同于传统 IT 时代,AI 时代对基础设施的性能、效率要求更高,CPU 主导的计算体系已快速向 GPU 主导的 AI 计算体系转移。阿里云正以 AI 为中心,全面重构底层硬體、计算、存储、网络、数据库、大数据,并与 AI 场景有机适配、融合,加速模型的开发和应用,打造一个 AI 时代的最强 AI 基建。
周靖人表示:" 云厂商拥有全栈技术储备,并通过基础设施的全面更新,让 AI 训练、推理、部署和应用整个生命周期变得更高效。"
大会现场,周靖人展示了 AI 驱动的阿里云全系列产品家族更新。最新上线的磐久 AI 伺服器,支持单机 16 卡、显存 1.5T,并提供 AI 算法预测 GPU 故障,准确率达 92%;阿里云 ACS 首次推出 GPU 容器算力,通过拓扑感知调度,实现计算亲和度和性能的提升;为 AI 设计的高性能网络架构 HPN7.0,可稳定连接超过 10 万个 GPU ,模型端到端训练性能提升 10% 以上;阿里云 CPFS 檔案存储,数据吞吐 20TB/s,为 AI 智算提供指数级扩展存储能力;人工智能平台 PAI,已实现万卡级别的训练推理一体化弹性调度,AI 算力有效利用率超 90%。
过去两年,模型的尺寸已增长数千倍,但模型的算力成本正在持续下降,企业使用模型的成本也越来越低。周靖人强调:" 这是 AI 基础设施全面革新带来的技术红利,我们会持续投入先进 AI 基础设施的建设,加速大模型走进千行百业。"
阿里云宣布通义千问三款主力模型再次大幅降价,最高降幅 85%,百万 tokens 价格低至 0.3 元。过去半年,阿里云百炼平台持续降低大模型调用的门槛,进一步推动大模型的普惠。
据悉,中国一汽、联想、微博、携程、喜马拉雅、三得利(中国)等 30 多万企业客户已经接入通义大模型;未来,生物医药、工业仿真、气象预测、游戏等行业还在加速拥抱大模型,将带来新一轮的 AI 算力增长。
周靖人表示:" 为应对 GPU 算力的指数级增长需求,尤其是即将爆发的推理市场,阿里云已经准备好了。"
开放最先进的大模型
过去一年,大模型技术实现了多个里程碑式跨越,从大语言到视频生成到多模态模型,大模型的能力边仍在不断扩展,在数学、代码及推理等能力上持续攀升。
作为业内最早布局大模型技术的科技公司之一,去年 4 月,阿里云发布首个大语言模型通义千问,如今通义大模型家族已全面涵盖语言、影像、视频、音频等全模态,性能均跻身世界第一梯队,同时通义模型持续开源,已成为最受企业和开发者欢迎的国产大模型。
大会现场,周靖人重磅宣布,通义旗舰模型 Qwen-Max 全方位更新,性能接近 GPT-4o;同时发布最强开源模型 Qwen2.5 系列,成为仅次于美国 Llama 的世界级模型群,此次共开源 100 款模型,创造大模型开源史上之最,让企业和开发者以低成本的方式用上大模型。
面向编程场景,阿里云通义灵码再次更新,推出全新 AI 程式员,和上一代产品不同,它同时具备架构师、开发工程师、测试工程师等多种岗位技能,能自主完成任务分解、代码编写、缺陷修复、测试等开发开发工作,最快分钟级完成应用开发,帮助軟體开发提效数十倍。
百模大战一年后,应用成为了大模型产业的主旋律。作为最早提出模型即服务(MaaS)理念的企业,阿里云一直把大模型生态的繁荣作为首要目标。目前,魔搭社区已成为中国最大的模型社区,拥有超 690 万开发者用户,与行业合作伙伴合作贡献了超 10000 款模型。
" 我们希望企业和开发者能以最低的成本做 AI、用 AI,让所有人都能用上最先进的大模型。" 周靖人说。