Low-Rank Quantization-Aware Training for LLMs

要約

大規模言語モデル(LLM)は世の中に溢れているが、その実用的な導入は、計算量とメモリに対する要求が増え続けているために困難である。量子化は、LLMの計算効率とメモリ効率を向上させる最も効果的な方法の1つです。量子化を考慮した学習法(QAT)は、一般的に最高の量子化性能をもたらしますが、長い学習時間と過剰なメモリ使用という代償を伴い、LLMに適用するには実用的ではありません。パラメータ効率的微調整(PEFT)と低ランク適応(LoRA)の文献に触発され、我々はLLMのための軽量でメモリ効率の良いQATアルゴリズムであるLR-QATを提案する。LR-QATは、予測性能を犠牲にすることなくメモリを節約するために、(a)量子化グリッドを意識した低ランク補助重み、(b)固定小数点またはダブルパック整数を用いたダウンキャスト演算子、(c)チェックポイント処理、といったいくつかの要素を採用している。(iii)異なる選択肢の量子化粒度、活性化量子化など、幅広い量子化設定に適用でき、多くのPTQ手法とシームレスに組み合わせることができる。我々はLR-QATをLLaMA-1/2/3とMistralモデルファミリーに適用し、いくつかの下流タスクでその有効性を検証した。我々の手法は、一般的な学習後量子化(PTQ)アプローチを凌駕し、フルモデルQATと同等のモデル性能に、メモリ使用量の数分の一で到達する。具体的には、24GBのメモリを搭載したコンシューマーグレードのGPU1つで、7BのLLMを訓練することができる。ソースコードはhttps://github.com/qualcomm-ai-research/LR-QAT。

要約(オリジナル)

Large language models (LLMs) are omnipresent, however their practical deployment is challenging due to their ever increasing computational and memory demands. Quantization is one of the most effective ways to make them more compute and memory efficient. Quantization-aware training (QAT) methods, generally produce the best quantized performance, however it comes at the cost of potentially long training time and excessive memory usage, making it impractical when applying for LLMs. Inspired by parameter-efficient fine-tuning (PEFT) and low-rank adaptation (LoRA) literature, we propose LR-QAT — a lightweight and memory-efficient QAT algorithm for LLMs. LR-QAT employs several components to save memory without sacrificing predictive performance: (a) low-rank auxiliary weights that are aware of the quantization grid; (b) a downcasting operator using fixed-point or double-packed integers and (c) checkpointing. Unlike most related work, our method (i) is inference-efficient, leading to no additional overhead compared to traditional PTQ; (ii) can be seen as a general extended pretraining framework, meaning that the resulting model can still be utilized for any downstream task afterwards; (iii) can be applied across a wide range of quantization settings, such as different choices quantization granularity, activation quantization, and seamlessly combined with many PTQ techniques. We apply LR-QAT to LLaMA-1/2/3 and Mistral model families and validate its effectiveness on several downstream tasks. Our method outperforms common post-training quantization (PTQ) approaches and reaches the same model performance as full-model QAT at the fraction of its memory usage. Specifically, we can train a 7B LLM on a single consumer grade GPU with 24GB of memory. Our source code is available at https://github.com/qualcomm-ai-research/LR-QAT

arxiv情報

著者 Yelysei Bondarenko,Riccardo Del Chiaro,Markus Nagel
発行日 2024-09-03 16:36:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク