Towards Green AI in Fine-tuning Large Language Models via Adaptive Backpropagation

要約

微調整は、事前トレーニングされた大規模言語モデル (LLM) をダウンストリーム アプリケーションに適応させる最も効果的な方法です。
LLM 対応 AI アプリケーションの急速な成長とオープンソース LLM の民主化により、専門家でなくても微調整が可能になりましたが、世界中で集中的に LLM 微調整を実行すると、エネルギー消費と二酸化炭素排出量が大幅に増加する可能性があります。
環境に大きな影響を与える可能性があります。
グリーン AI に対するこのような環境への影響の軽減は、微調整の FLOP の削減に直接関係しますが、効率的な LLM 微調整に関する既存の手法では、微調整における逆伝播コストを無視しているため、このような FLOP の限定的な削減しか達成できません。
この制限に対処するために、この論文では、さまざまなテンソルの逆伝播コストと微調整されたモデルの精度への寄与を適応的に評価し、最も適切なセットを選択することで微調整コストを最小限に抑える新しい LLM 微調整手法である GreenTrainer を紹介します。
トレーニング中のテンソルの。
GreenTrainer でのこのような選択は、FLOP 削減という所定の目標に基づいて行われ、エネルギー供給における二酸化炭素排出量やグリーン AI のニーズに柔軟に適応できます。
複数のオープンソース LLM モデルと抽象化された要約データセットに対する実験結果では、LLM モデル全体を微調整する場合と比較して、GreenTrainer は顕著なモデル精度の損失なしに微調整で最大 64% の FLOP を節約できることが示されています。
LoRa などの既存の微調整技術と比較して、GreenTrainer は同等の FLOP 削減でモデル精度を最大 4% 向上させることができます。

要約(オリジナル)

Fine-tuning is the most effective way of adapting pre-trained large language models (LLMs) to downstream applications. With the fast growth of LLM-enabled AI applications and democratization of open-souced LLMs, fine-tuning has become possible for non-expert individuals, but intensively performed LLM fine-tuning worldwide could result in significantly high energy consumption and carbon footprint, which may bring large environmental impact. Mitigating such environmental impact towards Green AI directly correlates to reducing the FLOPs of fine-tuning, but existing techniques on efficient LLM fine-tuning can only achieve limited reduction of such FLOPs, due to their ignorance of the backpropagation cost in fine-tuning. To address this limitation, in this paper we present GreenTrainer, a new LLM fine-tuning technique that adaptively evaluates different tensors’ backpropagation costs and contributions to the fine-tuned model accuracy, to minimize the fine-tuning cost by selecting the most appropriate set of tensors in training. Such selection in GreenTrainer is made based on a given objective of FLOPs reduction, which can flexibly adapt to the carbon footprint in energy supply and the need in Green AI. Experiment results over multiple open-sourced LLM models and abstractive summarization datasets show that, compared to fine-tuning the whole LLM model, GreenTrainer can save up to 64% FLOPs in fine-tuning without any noticeable model accuracy loss. Compared to the existing fine-tuning techniques such as LoRa, GreenTrainer can achieve up to 4% improvement on model accuracy with on-par FLOPs reduction.

arxiv情報

著者 Kai Huang,Hanyun Yin,Heng Huang,Wei Gao
発行日 2024-02-29 18:27:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク