今天小编分享的科学经验:字节万卡集群技术细节公开:2天搞定GPT-3训练,算力利用率超英伟达Megatron-LM,欢迎阅读。
随着对 Sora 技术分析的展开,AI 基础设施的重要性愈发凸显。
来自字节和北大的一篇新论文在此时吸引关注:
文章披露,字节搭建起的万卡集群,能在1.75 天内完成 GPT-3 规模模型(175B)的训练。
具体来说,字节提出了一个名为MegaScale的生产系统,旨在解决在万卡集群上训练大模型时面临的效率和稳定性挑战。
在 12288 块 GPU 上训练 1750 亿参数大语言模型时,MegaScale 实现了 55.2% 的算力利用率(MFU),是英伟达 Megatron-LM 的 1.34 倍。
论文还透露,截止 2023 年 9 月,字节已建立起超过 1 万张卡的 Ampere 架构 GPU(A100/A800)集群,目前正在建设大规模 Hopper 架构(H100/H800)集群。
适用于万卡集群的生产系统
大模型时代,GPU 的重要性已无需赘述。
但大模型的训练,并不是把卡的数量拉满就能直接开干的——当 GPU 集群的规模来到 " 万 " 字级别,如何实现高效、稳定的训练,本身就是一个颇具挑战的工程问题。
第一重挑战:效率。
训练大语言模型并非简单的并行任务,需要在多个 GPU 之间分布模型,并且这些 GPU 需要频繁通信才能共同推进训练进程。通信之外,操作符优化、数据预处理和 GPU 内存消耗等因素,都对算力利用率(MFU)这个衡量训练效率的指标有影响。
MFU 是实际吞吐量与理论最大吞吐量之比。
第二重挑战:稳定性。
我们知道,训练大语言模型往往需要花费非常长的时间,这也意味着,训练过程中失败和延迟的现象并不鲜见。
失败的成本是高昂的,因此如何缩短故障恢复时间变得尤为重要。
为了应对这些挑战,字节跳动的研究人员构建了 MegaScale,并已将其部署到字节的数据中心中,用以支持各种大模型的训练。
MegaScale 是在英伟达 Megatron-LM 的基础上改进的。
具体改进包括,算法和系统组件的共同设计、通信和计算重叠的优化、操作符优化、数据流水线优化以及网络性能调优等:
算法优化:研究人员在模型架构中引入并行化的 Transformer 块、滑动視窗注意力机制(SWA)和 LAMB 优化器,来提高训练效率而不牺牲模型的收敛性。
通信重叠:基于对 3D 并行(数据并行、流水线并行、张量并行)中各个计算单元操作的具体分析,研究人员设计技术策略有效地减少了非关键执行路径上操作所带来的延迟,缩短了模型训练中每一轮的迭代时间。
高效操作符:对 GEMM 操作符进行了优化,对 LayerNorm 和 GeLU 等操作进行了融合,以减少启动多个内核的开销,并优化内存访问模式。
数据流水线优化:通过异步数据预处理和消除冗余的数据加载器,来优化数据预处理和加载,减少 GPU 空闲时间。
集体通信群初始化:优化了分布式训练中英伟达多卡通信框架 NCCL 初始化的过程。在未经优化的情况下,2048 张 GPU 的集群初始化时间是 1047 秒,优化后可降至 5 秒以下;万卡 GPU 集群的初始化时间则可降至 30 秒以下。
网络性能调优:分析了 3D 并行中的机器间流量,设计技术方案提高网络性能,包括网络拓扑设计、减少 ECMP 哈希冲突、拥塞控制和重传超时設定。
故障容忍:在万卡集群中,软硬體故障难以避免。研究人员设计了一个训练框架,来实现自动故障识别和快速恢复。具体包括,开发诊断工具来监控系统组件和事件、优化 checkpoint 高频保存训练进程等。
论文提到,MegaScale 能够自动检测和修复超过 90% 的软硬體故障。
实验结果表明,MegaScale 在 12288 个 GPU 上训练 175B 大语言模型时,实现了 55.2% 的 MFU,是 Megatrion-LM 算力利用率的 1.34 倍。
训练 530B 大语言模型的 MFU 对比结果如下:
One More Thing
就在这篇技术论文引发讨论之际,字节类 Sora 产品也传出了新消息:
剪映旗下类似 Sora 的 AI 视频工具已经启动邀请内测。
看样子地基已经打好,那么对于字节的大模型产品,你期待吗?
论文地址:
https://arxiv.org/abs/2402.15627