今天小编分享的科学经验:中国首个网络大模型,pick了CPU,欢迎阅读。
当电信网络用上了大模型,会是一种什么体验?
以前网络上若是出了问题,运维人员需得是先靠着经验反复排查,找到了 " 病根 " 再 " 对症下药 "。
而现在有了大模型,这事儿的 " 打开方式 " 就变得截然不同了。
首先,网络上若是出现了问题,大模型已经学会自己去找 " 病根 "了,然后会把它的判断结果呈现到运维人员的面前。
若是结果跟运维人员的诊断一致,那么 OK," 啪的一下 ",问题就可以快速得到解决。
其次,即使诊断结果有所偏差或者描述不够详细,运维人员现在也只需做一个动作——问。
大模型不仅会像一位领網域专家一样,凭借专业且丰厚的知识,对人类提出的问题做详尽的解答;更重要的是,它还非常得快。
业界一般认为文本生成延时小于 100 毫秒是人类觉得较为舒适的阈值,而这个大模型它的生成速度则是:
首字元时延在 1 秒以内,生成延时在 50 毫秒左右。
因此,即使面对再多再复杂的问题,运维人员工作的感觉就好比旁边有一位 " 高人 " 在现场指导一样了。
值得一提的是,这个网络大模型并不只是个现象级产品,而是已经实实在在的做到了" 上岗 "。
据悉,某电信运营商已经在全国 31 个省将它铺开应用,日均调用量高达 10 万次!
也正因如此,就在刚刚落幕的第二届 " 华彩杯 " 算力大赛 · 智能计算专题赛中,它还拿下了一等奖的好成绩,是获得了官方认证的那种。
另外,方案白皮书《中国电信携英特尔积极探索基于至强 ® CPU 平台的网络大模型推理算力方案》也在中国通信标准化协会 CCSA TC610、欧洲电信标准化协会 ENI 产业标准组主办的云网运营自智与网络大模型技术研讨会上正式发布。
那么接下来,我们就来进一步深入了解一下这个网络大模型。
当大模型 " 上岗 " 电信网络
就目前 " 上岗 " 的结果来看,该电信运营商的各级运维人员均已接入网络大模型。
正如我们刚才提到的,他们运维的方式已经产生了实质性的改变——
专业知识问答、信息筛选、总结信息等等,统统交给大模型来处理即可。
不仅如此,在网络规划方面,网络大模型也在发挥着作用。
它的推理输出结果已经涵盖了网络建设、网络维护、网络优化和运营决策等场景。
基层运维人员通过这些结果,就可以实现精准理解与分析规则、自动规则核查;同时,网络大模型提供的专业领網域专业知识,还可以帮助电信行业方案分析与生成。
或许有小伙伴就要问了,这和市面上的众多大模型问答产品又有什么区别呢?
重点就在于够垂直。
网络大模型作为行业的 " 专家 ",它所提供的答案是可以深入理解运维人员的用户需求和意图的,因此生成的答案和知识更精准、更个性化。
生成内容是够专业了,接下来我们就要聊聊速度的问题。
众多的运维场景都属于边缘端,也正因如此,就会对数据在边侧的即时响应速度提出了较高的要求。
毕竟若是等大模型生成答案还要好几分钟,那么对于运营商网络故障修复来说就成了臃肿的包袱。
对此,该电信运营商的 " 解法 " 是:
使用满足OTII 标准(边缘硬體产业的新标杆)的边缘伺服器。
边缘伺服器的部署环境要求要比数据中心高,有时甚至需要部署在一些极端的恶劣情况下。
这意味着边缘伺服器需要在功耗、体积、耐用性、 TCO 等方面符合特定的要求,能够在极端高低温、灰尘、腐蚀、震动冲击、电磁干扰下保持设备的正常运行。
而该电信运营商所采用的 OTII 伺服器部署在边缘场景下就具备了相对的优势,例如针对环境适应的问题,它可以在高温 55 ° 以下工作。
除此之外,它还支持 IP65,符合 EMC ClassB 设计,支持 9 级地震烈度,机身小巧,有 1U/2U/4U 等多种型号,支持挂墙安装等等。
不仅如此,伺服器还支持前维护,适应边缘的运维需求,该电信运营商大量的边缘机房无需任何改造,就可以部署基于 OTII 标准的标准伺服器。
也正因为在如此,便让数据的及时互動和响应有了强有力的安全保障。
其生成速度也正如刚才所述,已经达到了首字元时延在 1 秒以内,生成时延在 50 毫秒左右,可以满足大模型推理的功能和性能需求。
就目前来看,网络大模型已覆盖网络" 规、建、维、优、营 "全生命周期五大类场景,围绕知识问答、辅助助手、智能体三个维度,已经打造了12 个 AI 助手。
具体场景和性能表现如下表、图所示:
△网络大模型在不同应用场景中的性能表现
据悉,该电信运营商网络大模型已实现问答准确率 85%、方案生成可用率 90%、故障处置效率提升 30%、高危指令稽核效率提升 50% 的总体目标。
由此可见,网络大模型已然是一个合格有效且可放心 " 上岗 " 的 AI 了。
而在它能够做到 " 够快、够准 " 的背后,该电信运营商还有一个杀手锏——
在背后起关键作用的算力 " 马达 ",某电信运营商 pick 的是CPU。
Why CPU?
从上述 " 网络 " 大模型的应用流程可以看到,模型推理是至关重要的一个环节,它直接决定了故障定位、处置方案的生成速度和准确率。
而这恰恰是 CPU 大显身手的 " 主场 "。
从电信行业本身的特点来说,历来整个系统中就有大量的 CPU 存量,无需引入全新的异构架构,而是继续采用成熟的 CPU 方案,对电信行业来说有几大优势:
减少采购环节,降低总拥有成本。
该电信运营商作为全球规模最大的通信运营商之一,其网络中部署着数以百万计的 X86 伺服器。这些伺服器往往还处于使用周期内,完全可以通过軟體更新的方式,快速实现大模型的部署与应用。相比重新采购新的硬體设备,这种方式可以大幅降低前期投入,提高投资回报率。
电信行业对系统稳定性要求更高。
电信业务覆盖范围广,涉及社会运行方方面面,从医疗救援到金融交易等等,对连续性要求极高,轻微故障也会直接影响客户体验。现代通信网络又是全球最复杂的工程系统之一,一处小小的异常都可能引发连锁反应,影响整网运转。而以 X86 平台为代表的英特尔 CPU 架构安全和稳定性经过几十年的积累和验证,经得起考验。
已建立成熟的运维技术团队。
作为 ICT 领網域的传统企业,该电信运营商拥有一支规模庞大、经验丰富的 IT 技术团队。这些工程师、运维人员,对英特尔 CPU 的微架构、指令集、调优工具等都有着深入的理解和掌握。继续采用 CPU 部署大模型无需太多学习和培训成本,大大降低了新技术的采用门槛。
△网络网络大模型在不同应用场景中的性能表现
具体到 CPU 产品的选型," 网络 " 大模型方案使用第五代英特尔 ® 至强 ® 可扩展处理器作为算力核心,来应对高强度、高并发的大模型推理需求。
首先 , 第五代英特尔 ® 至强 ® 可扩展处理器配备了更多的处理器内核数量、更强的单核性能和更大的三级缓存(LLC)容量。尤其是 LLC 容量的提升 , 使得大多数模型参数能够直接驻留其中 , 从而大幅提升推理速度。此外 , 每路处理器还支持多达 8 个 DDR5-4800 内存通道 , 能够有效缓解高内存需求场景下的带宽瓶颈。
更重要的是 , 第五代至强 ® 还内置了多个专用于 AI 加速的引擎。特别是英特尔 ® AMX ( 高级矩阵扩展 ) ,采用分块矩阵乘法的创新方式 , 通过 Tile 矩阵乘法单元 ( TMUL ) 对数据实施矩阵运算。并且 AMX 支持 INT8、BF16 等低精度数据类型 , 在保证精度的前提下显著提高每时钟周期的指令数。
軟體方面,方案还引入了一系列英特尔 AI 工具来进一步释放硬體潜力。
例如 , 英特尔开源的分布式推理优化框架 xFastTransformer(xFT),可基于至强 ® 平台的指令集实现张量并行、流水线并行等多种性能优化,并支持 BF16、INT8、INT4 等多种数据类型以及多种主流大模型。
这些 AI 軟體工具实现了对主流 AI 开发框架的全面兼容,使得网络大模型无需修改代码即可从 GPU 迁移到 CPU,真正实现 " 一次编写,随处部署 "。
此外 , 得益于 CPU 的能效优势 , 采用第五代至强 ® 方案还能显著降低模型运营的能耗成本。数据显示 , 第五代至强 ® 的开箱即用能耗比较上一代提升高达 34%, 启用 BIOS 优化后还可进一步提高。
除了对 CPU 本身的选择,网络大模型由于需要部署到生产一线,有时甚至需要在极端恶劣环境部署,对于整个伺服器的要求非常高。
为了更好地满足业务需求并提升使用体验,该电信运营商选用了符合 OTII 标准的边缘伺服器。
OTII 标准由英特尔联合中国通信标准化协会、该电信运营商等企业共同制定,满足电信边缘场景对开放性、可扩展性的要求,涵盖了伺服器外形、散热、电源、管理等各方面的规范,在功耗、体积、耐用性等方面符合特定要求,能在极端高低温、灰尘、腐蚀、震动冲击、电磁干扰等情况下保持运行。
由此可见 , 选择 CPU 进行网络大模型推理部署 , 已被该电信运营商这样的大型企业实际验证。这既是出于技术成熟度与稳定性的考量 , 更契合了企业客观的 IT 环境与人才储备。
该电信运营商的实践表明,在时延、吞吐、功耗等关键指标上,CPU 不仅可以满足严苛的业务需求,借助软硬體的联合优化,推理成本也大幅下降。
特别是该方案还在 2024 华彩杯取得好成绩,为大模型在更多场景应用打造了一个标杆。该电信运营商和英特尔的合作模式,也成为一个可以值得借鉴的 " 范本 "。
随着未来技术发展,大模型还会深入走进更多行业,需要在性能、功耗、成本、易用性等多方面实现最佳平衡。
总的来说,CPU 在 AI 推理加速上仍然大有可为。
最后让我们打个小广告:为了科普 CPU 在 AI 推理新时代的玩法,量子位开设了《最 "in"AI》专栏,将从技术科普、行业案例、实战优化等多个角度全面解读。
我们希望通过这个专栏,让更多的人了解 CPU 在 AI 推理加速,甚至是整个 AI 平台或全流程加速上的实践成果,重点就是如何更好地利用 CPU 来提升大模型应用的性能和效率。
>