Parameter-Efficient Fine-Tuning in Large Models: A Survey of Methodologies

要約

生予測をスケーリングすることで予測される大規模モデルは、多くの分野で画期的な進歩を遂げ、特に自然言語生成タスクでは、人間のレベルに近づいたり、凌駕したりさえしている。しかし、前例のない規模のパラメータは、多大な計算コストとストレージコストをもたらします。このような大規模モデルの運用には、かなりの計算リソースとGPUメモリが必要です。大規模モデルを特定の下流タスクに適応させる場合、その膨大なパラメータ・スケールは、計算能力やGPUメモリに制限のあるハードウェア・プラットフォーム上で微調整を行う上で大きな課題となります。この問題に対処するため、PEFT(Parameter-Efficient Fine-Tuning)は、様々なダウンストリームタスクに適合するように、事前に訓練された大規模モデルのパラメータを効率的に調整することで、実用的なソリューションを提供します。具体的には、PEFTは事前に訓練された大規模モデルのパラメータを特定のタスクやドメインに適応するように調整し、追加パラメータの導入と必要な計算リソースを最小限に抑える。このレビューでは、主にPEFTの予備知識、様々なPEFTアルゴリズムのコアとなるアイデアと原理、PEFTの応用、そして潜在的な将来の研究の方向性を紹介する。このレビューを読むことで、PEFTの方法論に興味を持つ人々がPEFTの方法論を素早く理解することができ、それによってPEFTの発展と革新が加速されると信じている。

要約(オリジナル)

The large models, as predicted by scaling raw forecasts, have made groundbreaking progress in many fields, particularly in natural language generation tasks, where they have approached or even surpassed human levels. However, the unprecedented scale of their parameters brings significant computational and storage costs. These large models require substantial computational resources and GPU memory to operate. When adapting large models to specific downstream tasks, their massive parameter scale poses a significant challenge in fine-tuning on hardware platforms with limited computational power and GPU memory. To address this issue, Parameter-Efficient Fine-Tuning (PEFT) offers a practical solution by efficiently adjusting the parameters of large pre-trained models to suit various downstream tasks. Specifically, PEFT adjusts the parameters of pre-trained large models to adapt to specific tasks or domains, minimizing the introduction of additional parameters and the computational resources required. This review mainly introduces the preliminary knowledge of PEFT, the core ideas and principles of various PEFT algorithms, the applications of PEFT, and potential future research directions. By reading this review, we believe that interested parties can quickly grasp the PEFT methodology, thereby accelerating its development and innovation.

arxiv情報

著者 Luping Wang,Sheng Chen,Linnan Jiang,Shu Pan,Runze Cai,Sen Yang,Fei Yang
発行日 2024-11-01 03:26:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク