今天小编分享的科技经验:2024年终AI盘点:基础设施高歌猛进 混合式AI解决方案加速落地,欢迎阅读。
现如今,人工智能正以前所未有的速度和深度改变生产生活方式,成为推动经济社会发展的重要动力。据 IDC 预测,到 2030 年,人工智能将为全球经济贡献 19.9 万亿美元,推动 2030 年全球 GDP 增长 3.5%。纵观 2024 年全年,AI 的热度不但没有消散,反而又一次迎来了令人瞩目的爆发式增长,接下来,就让我们一起回顾这不平凡的一年。
1 AI 硬體强势崛起,数据中心蓄势待发
众所周知,算力是人工智能三要素中至关重要的组成部分,作为数字经济时代的关键生产力要素,算力的赋能作用日益凸显,已成为驱动各行业变革的核心力量。但不可否认的是,算力的强弱很大程度上受到底层硬體的限制,而今年的 AI 硬體也呈现出百花齐放的态势。
GPU:依然是最重要的算力基础
虽然 GPU 最初是为了处理图形和影像而设计的,但随着人工智能的兴起,其强大的并行计算能力被发现非常适合处理 AI 所需的大量数据和复杂计算。AI 算力则是衡量计算机处理人工智能任务的能力,它直接影响着 AI 模型的训练速度和性能表现。
根据 TechInsights 的数据,2023 年全球全球数据中心 GPU 出货量达到 385 万颗,其中英伟达出货量 376 万颗,市占率超过了 97%,今年虽然没有具体的数据,但仅在上半年,英伟达就销售了价值近 420 亿美元的 AI 和 HPC GPU,而全年其运算 GPU 的销售额可能超过 900 亿美元。
虽说英伟达在今年并没有如大家期待中那般推出新的旗舰 GPU 芯片 B300/GB300,但我们仍然可以从已经曝光的数据中一窥其恐怖的实力:根据已曝光的消息,B300 的显存规格会进一步提升到 288GB,同时引入了 LPCAMM 内存模块设计,并具备高达 1.6Tbps 的带宽。
至于其市场表现究竟如何,就得等到明年才能见分晓了。
CPU:并未被 AI 时代遗忘
提起 AI 训练和 AI 推理,很多人都会想起更擅长处理大量并行任务的 GPU,却在一定程度上忽略了 CPU 的价值,事实上,目前的 AI 应用实际上可以分为两大类,一类是基于 GPU 的重负载训练应用,另一类则是对延迟和能效更加敏感的轻应用,对这类应用而言,通过使用 CPU 混合精度即可实现的推理吞吐量反而能带来更高的灵活性和更具优势的 TCO,以英特尔在 9 月份推出的至强 6 性能核处理器为例,该处理器专门为 AI、数据分析、科学计算等计算密集型业务而生,并且在性能、内核密度、内存和 I/O 创新都有十分明显的突破。
特别是在内存带宽方面,至强 6900P 系列处理器拥有 12 通道的内存,内存规格支持 DDR5 6400 或者 MRDIMM 8800,相比上一代实现了大幅提升,这使得至强 6900P 系列处理器的每个核心拥有了更加充裕的内存带宽,更加有利于核心性能的释放,从而在生成式 AI、深度学习、机器学习、推理训练等场景中获得更好的表现。
不但如此,至强 6 性能核处理器内置的 AMX 加速器也在此前支持 BF16 和 int8 数据类型的基础上引入了 FP16 的数据精度,这也为 AI 推理和训练提供了更多精度上的选择。
可以看到,CPU 不仅没有被边缘化,反而持续更新以适应这些变化,并做出了重要改变。
存储:" 意料之外 " 的赢家
AI 时代下,算力的重要性毋庸置疑,但数据存储作为 AI 的 " 第三支柱 ",同样也在 AI 的全生命周期内发挥着重要作用,尤其是在生成式 AI 爆火的大背景下,包括影像、视频、音频在内的非结构化数据会不可避免地呈现出爆炸式增长的态势,根据 IDC 的调研结果,预计到 2028 年,每年产生的数据总量会接近 400ZB。
在数据量不断增长的趋势下,数据存储技术对于人工智能数据周期中不同阶段基础设施和工作负载的容量、性能、能耗效益以及成本效益都至关重要,具体来说,在人工智能数据周期的原始数据存档,内容存储环节,需要从各种来源安全高效地收集并存储原始数据,以用于训练模型,这一阶段收集的数据质量和多样性至关重要,为后续的所有阶段奠定了基础。由于查找和收集数据需要大容量存储,所以在此阶段,可以经济高效地存储巨量规模化数据,且具备更低 TCO 的大容量企业级 HDD(eHDD)通常是建立深度内容资源库的理想选择。
而在 AI 模型训练阶段,模型会在高性能的超级计算机平台上进行反复训练,而训练效率在很大程度上取决于最大化 GPU 利用率和专门的高性能存储。由于这一阶段的工作负载对计算性能的要求极高,因此最理想的存储方案是高性能、低容量、以计算为目的的企业级 磁碟。
因此,无论是 HDD 还是 磁碟,都在今年迎来了自己的 " 高光时刻 "。
在不久之前,Solidigm 推出了 122.88TB 的 D5-P5336QLC 磁碟,是目前行业里容量密度最高的 QLC 磁碟 产品,相比于传统的 HDD JBOD 或者替换 TLC 磁碟 JBOD 的方案可以实现 4-8 倍空间占用的节约,同时在总功耗、散热、电力等方面都有非常出色的表现,因此十分适用于内容分发网络、通用伺服器混合负载、对象存储等工作负载。
西部数据则针对高性能存储需求推出了首款企业级 PCIe Gen 5.0 解决方案:SanDisk DC SN861 NVMe 磁碟,该产品不仅提供 U.2、E1.S 和 E3.S 三种规格,并支持 NVMe 2.0 和 NVMe MI 1.2c 规范以及 OCP 2.0 标准,充分确保了可扩展性和灵活性,容量最高则达到了 16TB,非常适合各类数据密集型应用。
至于希捷,则在今年推出了 Mozaic3+(魔彩盒 3+)平台,该平台使用与 PMR 硬碟基本相同的材料组件,大幅增加容量,使数据中心能够显著降低存储采购和运营成本。目前,基于该平台的硬碟单碟容量已经达到了 3TB 以上,未来几年内单碟将达到 4TB+ 和 5TB+,整体容量也会达到 50TB,可以高效地满足 TCO 成本和规模化扩展等方面的需求。
当然,除了上述硬體之外,FPGA、ASIC 也成为了 AI 计算领網域的黑马,预计在明年,随着技术的进步和市场的发展,它们也会发挥越来越重要的作用,由于篇幅有限,笔者在这里就不再赘述。
2 混合式 AI 解决方案加速落地,大模型迎来新一轮洗牌
毫无疑问的是,AI 技术展现的巨大潜力和价值正在推动企业加速拥抱 AI 技术,根据联想此前发布的《2024 年全球首席信息官报告》,全球 61% 的企业首席信息官(CIO)认为证明 AI 投资的投资回报率(ROI)极具挑战性。随着人工智能等技术不断渗透到个人与企业的真实应用场景,AI 下半场从技术突破进入到落地应用的阶段,混合式人工智能已成为 AI 价值落地的必然路径。
不过要注意的是,由于混合式人工智能的设计、部署、管理和维护要更加复杂,因此,提供全面产品以及解决方案和服务的能力就显得十分重要。而这也是联想、英特尔、IBM、华为等科技巨头最为擅长的。
以联想为例,在今年 10 月份,联想与英伟达共同推出了联想人工智能快速启动、联想人工智能应用库、人工智能数据和技术基础架构等在内的全新混合式 AI 解决方案及服务,能够以高效、便捷和专业的方式,充分帮助企业实现 AI 技术落地到业务中的商业价值。
具体来说,基于 NVIDIA AI Enterprise 軟體平台的联想人工智能快速启动服务可以助力企业组织在数周内证明个人 AI、企业 AI 和公共 AI 平台用例的商业价值;联想人工智能应用库则集合了诸多企业通用领網域及垂直行业的 AI 智能体,可为企业营销、IT 运维、法务、客户服务等多个业务场景提供 AI 解决方案;人工智能数据和技术基础架构解决方案与服务则能帮助企业评估其平台的 AI 准备情况,并能通过切实可行且经济高效的措施,来优化和搭建其所需的数据、应用和云技术等 IT 基础设施。
基于联想全栈 AI 的战略布局,其设备和基础设施作为全新混合式人工智能解决方案的重要载体,也正加速与 AI 的融合。联想正不断扩展其 AI 终端产品组合,通过包含 PC、伺服器、工作站等一系列强大的 AI 设备和基础设施组合,与解决方案的紧密结合,使企业能够快速实现强大、负责任且可持续的人工智能。比如在 AI 基础设施方面,联想将自研的海神(Neptune)液冷技术不断迭代扩展至更多伺服器设备,并将支持 NVIDIA 领先的加速计算平台,助力人工智能新时代企业实现更高的能源效率和可持续发展。
行业落地方面,联想携手贝智基金,在香港爱培学校率先设立香港首个 AI 辅助学习中心,通过人工智能等技术惠及更多有特殊教育需求的儿童。全新成立的 AI 辅助学习中心配备了联想 AI 硬體及计算机视觉、自然语言处理和机器人流程自动化(RPA)等在内的混合式 AI 技术,帮助确保贝智基金的治疗师和教育工作者能够为数量持续增长的特殊教育需求儿童提供及时、定制化的支援。
在联想 AI 辅助学习中心,原先繁琐和容易出错的人手数据收集、记录及回应评分已经实现完全自动化,通过实时数据收集及跨学科分析,生成个性化的学习计划,使治疗师们更专注于与特殊教育需求学生的直接互动、及时干预、建立更深层次的师生关系。这种高度自动化的流程也让志愿者能够通过接受培训成为课堂导师,并由经验丰富的 ABA 治疗师远程指导和监督。这一定程度上也缓解了专业治疗师资源匮乏的问题。
通过整合联想的语音、物体、手势识别技术与贝智基金的环境和学生情绪识别传感器,治疗师能够提供更精确的学生课堂表现评估,并从庞大的 ABA 数据库中选择最合适的后续课程任务建议。此外,联想不仅提供了边缘伺服器和 AIPC 来支持 ABA 治疗的 AI 模型运行,还提供智能白板作为互動式教学辅助工具,提升治疗师的教学互动性和吸引力。
据统计,在 AI 技术的加持下,这次合作使得爱培学校的整体治疗效率显著提升了 116%,个性化的教育培养模式也从一对一拓展到一对多,从而让更多的特殊儿童得到受益。
而大模型则在今年迎来了新一轮的洗牌,根据中国信通院的数据,截止今年 7 月,全球 AI 大模型数量就达到了 1328 个(包含同一企业、同一模型的不同参数版本),美国的 AI 大模型数量位居第一位,占比 44%,位居第二位的中国大模型数量占比为 36%。
尽管中国和美国在大模型领網域呈现出双强格局,但客观来看,中国依然处于追赶状态,尤其在底层技术上,中国科技公司相对薄弱,并且从 2023 年至今,几乎所有的头部科技公司都在强调 " 预训练模型 ",也就是通过长期堆算力和数据,将模型训练成接近通用的基座大模型。
作为这两年 " 最烧钱 " 的生意,大模型今年也在 " 商业化 " 的强需求中迎来了新一轮的洗牌,以字节跳动推出的豆包大模型为例,虽然最初推出是在 2023 年,但在豆包大模型推出以后,字节跳动又紧锣密鼓地发布了 Doubao-pro、Seed-TTS、Seed-ASR、Seed-Music、视频生成模型、视觉理解模型等多项重磅成果,在语言能力、多模态理解与生成、模型推理、代码生成等方面不断提升。到 2024 年 12 月,豆包大模型通用模型能力已经全面对齐 GPT-4o,在 FlagEval 模型评测的 " 对话模型 " 榜单中,豆包 -pro32k 版本已经位列第一。
当然,更值得关注的是价格,豆包视觉模型比行业平均价格低 85%,单价为 0.003 元,这也让视觉理解模型首次进入 " 厘时代 "。
而亚马逊云科技则是在不久前的 re:Invent 大会期间推出了 Amazon Nova 系列模型,包括文生文模型 Nova Micro,低成本多模态模型 Nova Lite,在准确性、速度和成本间实现平衡的 Nova Pro、可处理复杂推理任务的 Nova Premier、新一代影像生成模型 Amazon Nova Canvas 以及新一代视频生成模型 Amazon Nova Reel。从而向客户提供一个能够支持规模化推理的平台,以充分应用亚马逊云科技的推理能力,并帮助客户用好自己的私有化数据,实现性能、安全和成本方面的平衡。
而这两天最受瞩目的莫过于 DeepSeek V3 的发布,其在超低训练成本的前提下实现了和 GPT-4o、Claude 3.5 相当的性能水平,堪比小米加步枪战胜了飞机大炮,根据官方论文,在架构方面,DeepSeek V3 采用了创新的负载均衡策略和训练目标,同时在后训练方面,DeepSeekV3 引入了一种创新方法,将推理能力从长思维链模型(DeepSeek R1)中,蒸馏到标准模型上。这在显著提高推理性能的同时,保持了 DeepSeek V3 的输出风格和长度控制。因此,通过在算法、框架和硬體方面的协同优化,DeepSeek V3 的训练成本变得非常经济,实现了令人惊叹的成果。
今年已经接近尾声,但大模型的洗牌仍未结束,对众多科技公司而言,在基础大模型上的新投入会逐渐转向实际应用和商业化,价格战等抢占市场的动作还将会持续很长时间,届时能够留下来的才是最后的赢家。
结语
进入 AI 时代,AI 带来的经济价值正逐步被验证,充分利用 AI 技术的力量实现新增长是企业在未来竞争中脱颖而出的关键。无论是底层的基础设施还是上层的行业应用,今年来自各个科技公司的更新和发布都在为我们带来惊喜,但这并不意味着 AI 的发展已经趋于成熟,如果说 2024 年的这些突破是一首交响乐,那么我们现在听到的,也仅仅是序曲的前几个音符,更宏大的主旋律才刚刚拉开帷幕。