要約
大規模言語モデル (LLM) をエッジ デバイスに展開すると、膨大な計算オーバーヘッドとメモリ要件が発生するため、大きな課題が生じます。
活性化スパース化は、推論中に活性化されるニューロンの数を減らすことで、これらのリソースの課題を軽減できます。
既存の方法は通常、活性化テンソルの統計に基づいた閾値処理ベースのスパース化を採用しています。
ただし、アクティブ化のスパース化がパフォーマンスに及ぼす影響はモデル化されておらず、その結果、次善のパフォーマンス低下が生じます。
この制限に対処するために、この論文では、活性化スパース化問題を再定式化して、活性化スパース性とモデルのパフォーマンスの関係を明示的に捉えます。
次に、この論文では、チャネルごとの thrEsholding と選択的スパース化による一般的な活性化スパース化アプローチである CHESS を提案します。
まず、チャネルごとのしきい値処理により、フィードフォワード ネットワーク (FFN) 層の各アクティベーション チャネルに固有のしきい値が割り当てられます。
次に、選択的スパース化には、アテンション モジュール内の特定のレイヤーにしきい値ベースのアクティブ化スパース化を適用することが含まれます。
最後に、LLM 推論を高速化するためのスパース カーネルの実装について詳しく説明します。
実験結果は、提案された CHESS が、既存の方法よりも少ないパラメーターを有効にしながら、8 つのダウンストリーム タスクにわたってパフォーマンスの低下を抑制し、LLM 推論を最大 1.27 倍高速化することを示しています。
要約(オリジナル)
Deploying large language models (LLMs) on edge devices presents significant challenges due to the substantial computational overhead and memory requirements. Activation sparsification can mitigate these resource challenges by reducing the number of activated neurons during inference. Existing methods typically employ thresholding-based sparsification based on the statistics of activation tensors. However, they do not model the impact of activation sparsification on performance, resulting in suboptimal performance degradation. To address the limitations, this paper reformulates the activation sparsification problem to explicitly capture the relationship between activation sparsity and model performance. Then, this paper proposes CHESS, a general activation sparsification approach via CHannel-wise thrEsholding and Selective Sparsification. First, channel-wise thresholding assigns a unique threshold to each activation channel in the feed-forward network (FFN) layers. Then, selective sparsification involves applying thresholding-based activation sparsification to specific layers within the attention modules. Finally, we detail the implementation of sparse kernels to accelerate LLM inference. Experimental results demonstrate that the proposed CHESS achieves lower performance degradation over eight downstream tasks while activating fewer parameters than existing methods, thus speeding up the LLM inference by up to 1.27x.
arxiv情報
著者 | Junhui He,Shangyu Wu,Weidong Wen,Chun Jason Xue,Qingan Li |
発行日 | 2024-12-27 17:49:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google