大酷樂
  • 汽车
  • 理财
  • 军事
  • 科技
  • 游戏
  • 互联网
  • 娱乐
  • 财经
  • 科学
  • 社会
  • 亲子
  • 电影
  • 健康
  • 教育
  1. 首頁
  2. 科学

十亿参数,一键瘦身!「模型减重」神器让大模型狂掉3/4

2023-08-04 简体 HK SG TW

今天小编分享的科学经验:十亿参数,一键瘦身!「模型减重」神器让大模型狂掉3/4,欢迎阅读。

本文介绍了可提升大语言模型的训练后量化表现的增强型 SmoothQuant 技术,说明了这项技术的用法,并证明了其在准确率方面的优势。此方法已整合至英特尔 ®  Neural Compressor [ 1 ] 中。

英特尔 ®  Neural Compressor 是一个包含量化、剪枝(稀疏性)、蒸馏(知识提炼)和神经架构搜索等多种常用模型压缩技术的开源 Python 库。

目前,诸如 TensorFlow、英特尔 ®  Extension for TensorFlow [ 2 ] 、PyTorch、英特尔 ®  Extension for PyTorch [ 3 ] 、ONNX Runtime 和 MXNet 等主流框架,都能与之兼容。

英特尔 ®  Neural Compressor 已经支持多款英特尔 ®  架构的硬體,比如英特尔 ®  至强 ®  可扩展处理器 [ 4 ] 、英特尔 ®  至强 ®  CPU Max 系列 [ 5 ] 、英特尔 ®  数据中心 GPU Flex   系列 [ 6 ] 和英特尔 ®  数据中心 GPU Max 系列 [ 7 ] 。本文涉及的实验基于第四代英特 ®  至强 ®  可扩展处理器 [ 8 ] 进行。

大语言模型

大语言模型 ( Large Language Model, LLM ) 需基于海量数据集进行训练,可能拥有数十亿权重参数。

其先进的网络结构和庞大的参数量,使它们能够很好地应对自然语言本身的复杂性。

完成训练后的大语言模型,可针对各种下游的自然语言处理 ( NLP ) 和自然语言生成 ( NLG ) 任务进行调优,让其更适合对话式聊天机器人(如 ChatGPT)、机器翻译、文本分类、欺诈检测和情感分析等任务场景。

大语言模型部署面临的挑战

大语言模型在执行自然语言处理和自然语言生成任务方面表现出色,但其训练和部署颇为复杂,主要面临以下挑战:

AI 与内存墙瓶颈问题 [ 9 ] :算力每两年提高 3.1 倍,内存带宽却只提高 1.4 倍;

网络带宽挑战:训练大语言模型需要采用分布式系统,这对网络带宽提出了较高要求;

系统资源有限:训练后的模型往往会部署在算力和内存资源均有限的系统上。

因此,采用训练后量化的方法来为大语言模型瘦身,对于实现低时延推理至关重要。

大语言模型的量化

量化是一种常见的压缩操作,可以减少模型占用的内存空间,提高推理性能。

采用量化方法可以降低大语言模型部署的难度。具体来说,量化是将浮点矩阵转换为整数矩阵:

其中 X_fp32、S 和 Z 分别为输入矩阵、比例因子和整数零点。

有关每通道 ( per-channel ) 量化策略虽然可能会减少量化损失,但不能用于激活值量化的原因,请参看 SmoothQuant 相关文档 [ 10 ] 。

不过,激活值量化误差损失却是导致模型量化准确率下降的重要因素。

为此,人们提出了很多方法来降低激活值量化损失,例如:SPIQ [ 11 ] 、Outlier Suppression [ 12 ] 和 SmoothQuant [ 13 ] 。

这三种方法思路相似,即把激活值量化的难度转移到权重量化上,只是三者在转移难度的多少上有所不同。

增强型 SmoothQuant

SmoothQuant 引入了一个超参数 α 作为平滑因子来计算每个通道的量化比例因子,并平衡激活值和权重的量化难度。

其中 j 是输入通道索引。

对于 OPT 和 BLOOM 等大多数模型来说,α =0.5 是一个能够较好实现权重和激活值量化难度分割的平衡值。模型的激活异常值越大,就越需要使用更大的 α 值来将更多的量化难度转移到权重上。

原始的 SmoothQuant 旨在通过针对整个模型使用一个固定值 α 来分割权重和激活值的量化难度。

然而,由于激活异常值的分布不仅在不同模型之间存在差异,而且在同一模型的不同层之间也不尽相同。

因此,本文推荐使用英特尔 ®  Neural Compressor 的自动调优能力,逐层获取最佳 α 值。

相关方法包括以下五个主要步骤(伪代码如下所示):

通过特殊的回调函数 register_forward_hook 捕获 ( hook ) 模型各层的输入和输出值。

根据用户定义的 α 范围和步长生成一个 α 值列表。

根据给定的 α 值重新计算平滑因子并调整参数(权重值和激活值)。

对权重执行每通道量化与反量化 ( quantization_dequantization ) ,对输入值执行每张量 ( per-tensor ) 量化与反量化,以预测与给定 α 值对应的每层输出值。

计算相对实际输出值的均方损失,将调整后的参数恢复回来,并保存每层的最佳 α 值。

本文提出的方法支持用多个标准(如最小值、最大值和平均值)来确定 Transformer 块的输入层归一化 ( LayerNorm ) 操作的 α 值。

实验发现,将 α 范围设为 [ 0.3, 0.7 ] ,步长设为 0.05,对大多数模型来说都能达到很好的平衡。

这一方法有两个显著特点:一是全自动化,二是比原始方法支持的融合模式多。

下图提供了在 BLOOM-1b7 模型上执行 SmoothQuant α 值自动调优的样例代码:

△启用增强型 SmoothQuant 的样例代码

用户只需传递一个模型名称 ( model_name ) 和一个数据加载器。值得注意的是,模型分析主要依靠的是 Torch JIT。用户可以在加载 Hugging Face [ 15 ] 模型时将 torchscript 設定为 True,或将 return_dict 設定为 False。

更多信息请参阅英特尔 ®  Neural Compressor 文档 [ 15 ] 。

结果

本文提出的增强型 SmoothQuant 的主要优势在于提高了准确率。

经过对多种主流大语言模型的评估,具备自动调优能力的 INT8 SmoothQuant 最后一个词元 ( last-token ) 的预测准确率要高于原始 INT8 SmoothQuant 和 FP32 基线方法。详见下图:

△FP32 基线方法、INT8(启用和不启用 SmoothQuant)以及 INT8(启用本文提出的增强型 SmoothQuant)的准确率对比

从上图可以看出,在 OPT-1.3b 和 BLOOM-1b7 模型上,本文提出的增强型 SmoothQuant 的准确率比默认的 SmoothQuant 分别高 5.4% 和 1.6%。

量化后的模型也缩小到 FP32 模型的四分之一,大大减少了内存占用空间,从而有效地提升大模型在英特尔 ®  平台上的推理性能。

更全面的结果请见 GitHub 存储库 [ 16 ] 。同时,也欢迎您创建拉取请求或就 GitHub 问题 [ 17 ] 发表评论。期待听到您的反馈意见和建议。

了解更多内容,请点击文末【阅读原文】。

作者:

英特尔公司人工智能资深架构师沈海豪、英特尔公司人工智能资深軟體工程师程文华、英特尔公司人工智能軟體工程师陆崟彤、何欣、郭恒、王畅、王梦妮,他们都在从事模型量化及压缩的研究与优化工作。

参考链接:

[ 1 ] 英特尔 ® Neural Compressor:

https://www.intel.cn/content/www/cn/zh/developer/tools/oneapi/neural-compressor.html

[ 2 ] 英特尔 ® Extension for TensorFlow:

https://www.intel.cn/content/www/cn/zh/developer/tools/oneapi/optimization-for-tensorflow.html

[ 3 ] 英特尔 ® Extension for PyTorch:

https://www.intel.cn/content/www/cn/zh/developer/tools/oneapi/optimization-for-pytorch.html

[ 4 ] 英特尔 ® 至强 ® 可扩展处理器 :

https://www.intel.cn/content/www/cn/zh/products/details/processors/xeon/scalable.html

[ 5 ] 英特尔 ® 至强 ® CPU Max 系列 :

https://www.intel.cn/content/www/cn/zh/products/details/processors/xeon/max-series.html

[ 6 ] 英特尔 ® 数据中心 GPU Flex 系列 :

https://www.intel.cn/content/www/cn/zh/products/details/discrete-gpus/data-center-gpu/flex-series.html

[ 7 ] 英特尔 ® 数据中心 GPU Max 系列 :

https://www.intel.cn/content/www/cn/zh/products/details/discrete-gpus/data-center-gpu/max-series.html

[ 8 ] 第四代英特 ® 至强 ® 可扩展处理器 :

https://www.intel.cn/content/www/cn/zh/events/accelerate-with-xeon.html

[ 9 ] AI 与内存墙 :

https://medium.com/riselab/ai-and-memory-wall-2cb4265cb0b8

[ 10 ] SmoothQuant 相关文档 :

https://github.com/intel/neural-compressor/blob/master/docs/source/smooth_quant.md

[ 11 ] SPIQ:

https://arxiv.org/abs/2203.14642

[ 12 ] Outlier Suppression:

https://arxiv.org/abs/2209.13325

[ 13 ] SmoothQuant:

https://arxiv.org/abs/2211.10438

[ 14 ] Hugging Face 模型 :

https://huggingface.co/models

[ 15 ] 英特尔 ® Neural Compressor 文档 :

[ 16 ] GitHub 存储库 :

[ 17 ] GitHub 问题 :

https://github.com/intel/neural-compressor/issues

* 本文系量子位获授权刊载,观点仅为作者所有。

—  完  —

量子位  QbitAI

վ ' ᴗ ' ի 追踪 AI 技术和产品新动态

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~  

>
熱門排行
  • 王治郅:杨瀚森主要的问题是速度 他的速度跟不上现代篮球的节奏 王治郅:杨瀚森主要的问题是速度 他的速度跟 郟君昊 | 2025-05-05
  • 贸易战烧进电影院:特朗普拟重税打击外国电影 逼好莱坞等回美拍片 贸易战烧进电影院:特朗普拟重税打击外国电影 習又夏 | 2025-05-05
  • 贷款追高炒黄金的人后悔了!有人一天亏掉6年工资,卖掉舍不得,不卖扛不住 贷款追高炒黄金的人后悔了!有人一天亏掉6年 寸飛蘭 | 2025-05-05
  • 手机电池突破8000mAh?硅碳技术的回旋镖:「折寿」换容量 手机电池突破8000mAh?硅碳技术的回旋镖:「折 衛青柏 | 2025-05-05
  • 贷款追高炒黄金的人后悔了!有人一天亏掉6年工资,卖掉舍不得,不卖扛不住 贷款追高炒黄金的人后悔了!有人一天亏掉6年 繁綺文 | 2025-05-05
  • 任天堂对Genki提起Switch 2商标侵权诉讼,后者回应称将严肃对待 任天堂对Genki提起Switch 2商标侵权诉讼,后 郜萌運 | 2025-05-05
  • 哪吒汽车APP和官网恢复正常 知情人士:之前断网因流量欠费 哪吒汽车APP和官网恢复正常 知情人士:之前断 袁曼雁 | 2025-05-05
  • 极越汽车 CEO 夏一平名下青岛/义乌两家公司被列入经营异常 极越汽车 CEO 夏一平名下青岛/义乌两家公司 集玲琳 | 2025-05-05
  • 全国经济第一大省明确,推动组建农商联合银行 全国经济第一大省明确,推动组建农商联合银行 佼昌翰 | 2025-05-05
  • 桑保利:亚马尔有配合意识&有点像梅西 姆巴佩更专注进球&更像C罗 桑保利:亚马尔有配合意识&有点像梅西 姆巴佩 甄正浩 | 2025-05-05
  • 高露现身上海虹桥机场 黑色外套点缀亮色爱心装饰俏皮亮眼 高露现身上海虹桥机场 黑色外套点缀亮色爱 惠惠君 | 2023-05-02
  • 《歧路旅人2》:向光而生 《歧路旅人2》:向光而生 衛青柏 | 2023-05-02
  • vivo X90S曝光:处理器更新为天玑9200+ 安卓最强芯 vivo X90S曝光:处理器更新为天玑9200+ 安卓最 袁曼雁 | 2023-05-05
  • “懒癌”发病率上升,定期体检别忽视 “懒癌”发病率上升,定期体检别忽视 幸聽楓 | 2023-05-02
  • 宋慧乔获百想视后 韩素希发图手动加爱心表情庆祝 宋慧乔获百想视后 韩素希发图手动加爱心表 賁芳蕤 | 2023-05-02
  • 曹操墓,里面都有啥? 曹操墓,里面都有啥? 衛青柏 | 2023-05-02
  • 十年了,他们终于要HE! 十年了,他们终于要HE! 惠惠君 | 2023-05-07
  • 中央部署经济工作,释放5大信号 中央部署经济工作,释放5大信号 郜萌運 | 2023-05-02
  • 高德上线手机弯道会车预警功能 高德上线手机弯道会车预警功能 習又夏 | 2023-05-02
  • 陈自瑶抱病为爱女做蛋糕庆生,王浩信点赞没露面 陈自瑶抱病为爱女做蛋糕庆生,王浩信点赞没露 賁芳蕤 | 2023-05-02
  • 等比例长大的童星,李兰迪算一个 等比例长大的童星,李兰迪算一个 郟君昊 | 2023-05-02
  • 这些被抓来做实验的流浪狗,最终拯救了无数糖尿病人 这些被抓来做实验的流浪狗,最终拯救了无数糖 集玲琳 | 2023-05-02
  • 《云襄传》终于抬上来啦,男O女A让人好上头! 《云襄传》终于抬上来啦,男O女A让人好上头! 集玲琳 | 2023-05-02
  • 高端国产车:军车血统,目前电动车越野的“天花板”? 高端国产车:军车血统,目前电动车越野的“天花 謝飛揚 | 2023-05-02
  • 21家A股游戏公司2022年收入651亿 今年“游戏+AI”能否逆风翻盘? 21家A股游戏公司2022年收入651亿 今年“游 衛青柏 | 2023-05-04
  • 普京签署总统令,批准对俄刑法典相关法条的修正案 普京签署总统令,批准对俄刑法典相关法条的修 集玲琳 | 2023-05-02
  • 信用风险释放趋缓,结构性风险需重点关注 ——2023年一季度债市信用风险回顾与下阶段展望 信用风险释放趋缓,结构性风险需重点关注 — 袁曼雁 | 2023-05-02
  • 与周立波夫妇闹纠纷成老赖,唐爽被司法拘留15日 与周立波夫妇闹纠纷成老赖,唐爽被司法拘留15 寸飛蘭 | 2023-05-05
  • 解除资格!停止一切合作 解除资格!停止一切合作 佼昌翰 | 2023-05-02
  • 中银证券给予南京银行增持评级 中银证券给予南京银行增持评级 袁曼雁 | 2023-05-03
  • 3699起 联想小新mini主机上架 13代酷睿标压处理器 3699起 联想小新mini主机上架 13代酷睿标压 習又夏 | 2023-05-05
  • 前董事长被免,天山生物全面进入“中植系”时代?股价曾在一月内暴涨超400% 前董事长被免,天山生物全面进入“中植系”时 惠惠君 | 2023-05-02
  • 疯成这样,怎么还能被全网吹捧? 疯成这样,怎么还能被全网吹捧? 郜萌運 | 2023-05-02
  • 狂吼11次“让一下”!交警咆哮开道嘶吼到吐 狂吼11次“让一下”!交警咆哮开道嘶吼到吐 寸飛蘭 | 2023-05-03
  • 摩根大通收购美国第一共和银行 摩根大通收购美国第一共和银行 謝飛揚 | 2023-05-02
  • 台剧赢麻了,又来一部8.9 台剧赢麻了,又来一部8.9 衛青柏 | 2023-05-02
  • 事关农村土地承包和农民权益,《农村土地承包合同管理办法》5月1日起施行 事关农村土地承包和农民权益,《农村土地承包 郟君昊 | 2023-05-02
  • 下降45分,上涨35分!34所自划线院校复试分数线涨幅汇总 下降45分,上涨35分!34所自划线院校复试分数线 袁曼雁 | 2023-05-07
  • "三高"已盯上青少年,做好这件事是关键 "三高"已盯上青少年,做好这件事是关键 習又夏 | 2023-05-05
  • 五一档没一个能打的 五一档没一个能打的 集玲琳 | 2023-05-05
  • 恐怖韩剧下神坛,这次胆小可入 恐怖韩剧下神坛,这次胆小可入 袁曼雁 | 2023-05-05
  • 这剧是不是用ChatGPT写的呀? 这剧是不是用ChatGPT写的呀? 惠惠君 | 2023-05-02
  • 200户连夜疏散,原因让人愤怒!“损失超一亿”,官方通报 200户连夜疏散,原因让人愤怒!“损失超一亿”, 袁曼雁 | 2023-05-03
  • 性骚扰惯犯,滚出娱乐圈 性骚扰惯犯,滚出娱乐圈 謝飛揚 | 2023-05-05
  • 48岁何炅自曝已老花眼,黄磊睡前认老,《向往的生活》证实将停办 48岁何炅自曝已老花眼,黄磊睡前认老,《向往的 佼昌翰 | 2023-05-02
  • 一个《长月烬明》倒了,《狐妖》《长相思》《与凤行》…在路上了 一个《长月烬明》倒了,《狐妖》《长相思》《 惠惠君 | 2023-05-02
  • 张天爱假期晒“酷”存照 卷发披肩穿黑色吊带裙大秀好身材 张天爱假期晒“酷”存照 卷发披肩穿黑色吊 嬴覓晴 | 2023-05-02
  • 当年轻人开始不随份子钱 当年轻人开始不随份子钱 袁曼雁 | 2023-05-02
  • 毕滢用8年时间成功逼宫?曾被传已婚生子的她,不容小觑 毕滢用8年时间成功逼宫?曾被传已婚生子的她, 幸聽楓 | 2023-05-03
  • 宋慧乔获视后首次晒照,拿奖杯笑容温柔 宋慧乔获视后首次晒照,拿奖杯笑容温柔 郜萌運 | 2023-05-02

©2022 大酷樂 版權所有

隱私政策 | 服務條款 | 聯繫我們