要約
生の予測をスケーリングすることで予測されるように、大規模なモデルは、多くの分野、特に人間レベルに近づいたり、したりする自然言語生成タスクで画期的な進歩を遂げました。
ただし、パラメーターの前例のないスケールは、大幅な計算コストとストレージコストをもたらします。
これらの大規模なモデルには、実質的な計算リソースと動作にGPUメモリが必要です。
大規模なモデルを特定のダウンストリームタスクに適応させる場合、それらの大規模なパラメータースケールは、限られた計算能力とGPUメモリを備えたハードウェアプラットフォームでの微調整に大きな課題をもたらします。
この問題に対処するために、パラメーター効率の高い微調整(PEFT)は、さまざまな下流タスクに合わせて大規模な訓練モデルのパラメーターを効率的に調整することにより、実用的なソリューションを提供します。
具体的には、PEFTは、特定のタスクまたはドメインに適応するために、事前に訓練された大型モデルのパラメーターを調整し、追加のパラメーターと必要な計算リソースの導入を最小限に抑えます。
このレビューでは、主にPEFTの予備的な知識、さまざまなPEFTアルゴリズムのコアアイデアと原則、PEFTの応用、および潜在的な将来の研究方向性を紹介します。
このレビューを読むことにより、利害関係者はPEFTの方法論を迅速に把握できるため、その開発と革新を加速できると考えています。
要約(オリジナル)
The large models, as predicted by scaling raw forecasts, have made groundbreaking progress in many fields, particularly in natural language generation tasks, where they have approached or even surpassed human levels. However, the unprecedented scale of their parameters brings significant computational and storage costs. These large models require substantial computational resources and GPU memory to operate. When adapting large models to specific downstream tasks, their massive parameter scale poses a significant challenge in fine-tuning on hardware platforms with limited computational power and GPU memory. To address this issue, Parameter-Efficient Fine-Tuning (PEFT) offers a practical solution by efficiently adjusting the parameters of large pre-trained models to suit various downstream tasks. Specifically, PEFT adjusts the parameters of pre-trained large models to adapt to specific tasks or domains, minimizing the introduction of additional parameters and the computational resources required. This review mainly introduces the preliminary knowledge of PEFT, the core ideas and principles of various PEFT algorithms, the applications of PEFT, and potential future research directions. By reading this review, we believe that interested parties can quickly grasp the PEFT methodology, thereby accelerating its development and innovation.
arxiv情報
著者 | Luping Wang,Sheng Chen,Linnan Jiang,Shu Pan,Runze Cai,Sen Yang,Fei Yang |
発行日 | 2025-04-24 07:20:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google