Towards Better Parameter-Efficient Fine-Tuning for Large Language Models: A Position Paper

要約

このペーパーでは、大規模言語モデル (LLM) に対するパラメーター効率の良い微調整 (PEFT) の差し迫ったニーズについて詳しく説明します。
LLM は優れた機能を備えていますが、広範なパラメータ要件と関連する計算要求により、現実世界のアプリケーションにおける実用性と拡張性が妨げられています。
私たちの意見書では、現状とこのテーマをさらに研究する必要性を強調し、LLM の強力な能力を最大限に活用するために対処しなければならない重大な課題と未解決の問題を認識しています。
これらの課題には、新しい効率的な PEFT アーキテクチャ、さまざまな学習設定用の PEFT、モデル圧縮技術と組み合わせた PEFT、およびマルチモーダル LLM 用の PEFT の探索が含まれます。
この意見書を提出することで、私たちはさらなる研究を促進し、LLM にとってより効率的でアクセスしやすい PEFT に関する議論を促進することを目指しています。

要約(オリジナル)

This paper delves into the pressing need in Parameter-Efficient Fine-Tuning (PEFT) for Large Language Models (LLMs). While LLMs possess remarkable capabilities, their extensive parameter requirements and associated computational demands hinder their practicality and scalability for real-world applications. Our position paper highlights current states and the necessity of further studying into the topic, and recognizes significant challenges and open issues that must be addressed to fully harness the powerful abilities of LLMs. These challenges encompass novel efficient PEFT architectures, PEFT for different learning settings, PEFT combined with model compression techniques, and the exploration of PEFT for multi-modal LLMs. By presenting this position paper, we aim to stimulate further research and foster discussions surrounding more efficient and accessible PEFT for LLMs.

arxiv情報

著者 Chengyu Wang,Junbing Yan,Wei Zhang,Jun Huang
発行日 2023-11-22 03:28:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク