今天小编分享的科学经验:Llama 3低比特量化性能下降显著!全面评估结果来了,欢迎阅读。
QHT 投稿
量子位 | 公众号 QbitAI
大模型力大砖飞,让 LLaMA3 演绎出了新高度:
超 15T Token 数据上的超大规模预训练,既实现了令人印象深刻的性能提升,也因远超 Chinchilla 推荐量再次引爆开源社区讨论。
与此同时,在实际应用层面上,另一个热点话题也浮出水面:
资源有限场景下,LLaMA3 的量化表现又会如何?
香港大学、北京航空航天大学、苏黎世联邦理工学院联合推出了一项实证研究,全面揭示了 LLaMA3 的低比特量化性能。
研究人员使用现有的 10 种训练后量化和 LoRA 微调方法,评估了 LLaMA3 在 1-8 比特和各种评估数据集上的结果。他们发现:
尽管性能令人印象深刻,LLaMA3 在低比特量化下仍然遭受了不可忽视的退化,特别是在超低位宽上。
项目已在 GitHub 上开源,量化模型也已登陆 HuggingFace。
具体来看实证结果。
轨道 1:训练后量化
表 1 和表 2 中分别提供了 LLaMA3-8B 和 LLaMA3-70B 在 8 种不同的 PTQ 方法下的低比特性能表现,覆盖了从 1 比特到 8 比特的广泛比特宽度。
1. 低比特权重
其中,Round-To-Nearest ( RTN ) 是一种基本的舍入量化方法。
GPTQ 是当前最有效率和有效的仅限权重的量化方法之一,它利用量化中的误差补偿。但在 2-3 比特下,当量化 LLaMA3 时,GPTQ 会导致严重的准确性崩溃。
AWQ 采用异常通道抑制方法来降低权重量化的难度,而 QuIP 通过优化矩阵计算来确保权重和 Hessian 之间的不一致性。它们都能保持 LLaMA3 在 3 比特时的能力,甚至将 2 比特量化推向有希望的水平。
2. 超低比特权重
最近出现的二值化 LLM 量化方法实现了超低比特宽度 LLM 权重压缩。
PB-LLM 采用混合精度量化策略,保留一小部分重要权重的全精度,同时将大部分权重量化为 1 比特。
DB-LLM 通过双重二值化权重分割实现高效的 LLM 压缩,并提出偏差感知蒸馏策略以进一步增强 2 比特 LLM 性能。
BiLLM 通过显著权重的残差逼近和非显著权重的分组量化,进一步将 LLM 量化边界推低至 1.1 比特。这些为超低比特宽度专门设计的 LLM 量化方法可以实现更高精度的量化 LLaMA3-8B,在⩽ 2 比特时远远超过如 GPTQ、AWQ 和 QuIP 等方法,在 2 比特(甚至在某些情况下 3 比特)下的表现。
3. 低比特量化激活
还通过 SmoothQuant 对量化激活进行了 LLaMA3 评估,SmoothQuant 将量化难度从激活转移到权重,以平滑激活异常值。评估显示,SmoothQuant 可以在 8 比特和 6 比特的权重和激活下保留 LLaMA3 的准确性,但在 4 比特时面临崩溃。
轨道 2:LoRA 微调量化
在 MMLU 数据集上,对于 LoRA-FT 量化下的 LLaMA3-8B,最显著的观察是,在 Alpaca 数据集上低秩微调不仅不能补偿量化引入的错误,甚至使性能下降更加严重。
具体来说,各种 LoRA-FT 量化方法在 4 比特下获得的量化 LLaMA3 性能,比没有使用 LoRA-FT 的 4 比特对应版本要差。这与 LLaMA1 和 LLaMA2 上的类似现象形成鲜明对比,在 LLAMA1 和 LLAMA2 中,4 比特低秩微调量化版本甚至能轻松超过 MMLU 上的原始 FP16 对应版本。
根据直观分析,这一现象的主要原因是由于 LLaMA3 强大的性能得益于其大规模的预训练,这意味着原始模型量化后的性能损失不能通过在一小部分低秩参数数据上进行微调来补偿(这可以被视为原始模型的一个子集)。
尽管量化导致的显著下降不能通过微调来补偿,但 4 比特 LoRA-FT 量化的 LLaMA3-8B 在各种量化方法下显著优于 LLaMA1-7B 和 LLaMA2-7B。例如,使用 QLoRA 方法,4 比特 LLaMA3-8B 的平均准确率为 57.0(FP16: 64.8),超过 4 比特 LLaMA1-7B 的 38.4(FP16: 34.6)18.6,超过 4 比特 LLaMA2-7B 的 43.9(FP16: 45.5)13.1。这表明在 LLaMA3 时代需要一种新的 LoRA-FT 量化范式。
在 CommonSenseQA 基准测试中也出现了类似的现象。与没有使用 LoRA-FT 的 4 比特对应版本相比,使用 QLoRA 和 IR-QLoRA 微调的模型性能也有所下降(例如,QLoRA 平均下降 2.8% vs IR-QLoRA 平均下降 2.4%)。这进一步展示了在 LLaMA3 中使用高质量数据集的优势,而且通用数据集 Alpaca 并没有对模型在其他任务中的性能作出贡献。
结论
这篇论文全面评估了 LLaMA3 在各种低比特量化技术(包括训练后量化和 LoRA 微调量化)中的性能。
此研究发现表明,尽管 LLaMA3 在量化后仍然展现出优越的性能,但与量化相关的性能下降是显著的,甚至在许多情况下可以导致更大的下降。
这一发现突显了在资源受限环境中部署 LLaMA3 可能面临的潜在挑战,并强调了在低比特量化背景下增长和改进的充足空间。通过解决低比特量化引起的性能下降,预期后续的量化范式将使 LLMs 在较低的计算成本下实现更强的能力,最终推动代表性的生成式人工智能达到新的高度。
论文链接:
https://arxiv.org/abs/2404.14047
项目链接:
https://github.com/Macaronlin/LLaMA3-Quantization
https://huggingface.co/LLMQ
— 完 —
投稿请发邮件到:
标题注明【投稿】,告诉我们:
你是谁,从哪来,投稿内容
附上论文 / 项目主页链接,以及联系方式哦
我们会(尽量)及时回复你
点这里关注我,记得标星哦~
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见 ~
>