STAR: Constraint LoRA with Dynamic Active Learning for Data-Efficient Fine-Tuning of Large Language Models

要約

大規模言語モデル(Large Language Models: LLM)は、プロンプト手法による少数ショット学習の強力な能力を実証しているが、複雑な推論タスクには教師付き学習が依然として必要である。LLMは膨大なパラメータとメモリを消費するため、PEFT(Parameter-Efficient Fine-Tuning)法とMEM(Memory-Efficient Fine-Tuning)法が提案されている。しかしながら、Data-Efficient Fine-Tuningの目的である、大量のアノテーションデータの消費については、未解明のままである。一つの明白な方法は、PEFT法を能動学習と組み合わせることである。しかし、実験結果は、そのような組み合わせは些細なことではなく、劣った結果をもたらすことを示している。プローブ実験を通して、このような観測は、不確実性のギャップとモデルの較正の悪さという2つの主な理由によって説明されるかもしれない。そこで本論文では、不確実性に基づく能動学習とLoRAを効果的に統合する新しいアプローチを提案する。具体的には、不確実性ギャップに対しては、アクティブラーニングの反復中にベースモデルの不確実性と完全モデルの不確実性を結合する動的不確実性測定を導入する。乏しいモデルキャリブレーションに対しては、モデルが過信しないようにLoRA学習中に正則化手法を取り入れ、不確実性推定を強化するためにモンテカルロドロップアウトメカニズムを採用する。実験結果は、提案アプローチが3つの複雑な推論タスクにおいて、既存のベースラインモデルを凌駕することを示している。

要約(オリジナル)

Though Large Language Models (LLMs) have demonstrated the powerful capabilities of few-shot learning through prompting methods, supervised training is still necessary for complex reasoning tasks. Because of their extensive parameters and memory consumption, both Parameter-Efficient Fine-Tuning (PEFT) methods and Memory-Efficient Fine-Tuning methods have been proposed for LLMs. Nevertheless, the issue of large annotated data consumption, the aim of Data-Efficient Fine-Tuning, remains unexplored. One obvious way is to combine the PEFT method with active learning. However, the experimental results show that such a combination is not trivial and yields inferior results. Through probe experiments, such observation might be explained by two main reasons: uncertainty gap and poor model calibration. Therefore, in this paper, we propose a novel approach to effectively integrate uncertainty-based active learning and LoRA. Specifically, for the uncertainty gap, we introduce a dynamic uncertainty measurement that combines the uncertainty of the base model and the uncertainty of the full model during the iteration of active learning. For poor model calibration, we incorporate the regularization method during LoRA training to keep the model from being over-confident, and the Monte-Carlo dropout mechanism is employed to enhance the uncertainty estimation. Experimental results show that the proposed approach outperforms existing baseline models on three complex reasoning tasks.

arxiv情報

著者 Linhai Zhang,Jialong Wu,Deyu Zhou,Guoqiang Xu
発行日 2024-03-02 10:38:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL パーマリンク