DEFT: Data Efficient Fine-Tuning for Large Language Models via Unsupervised Core-Set Selection

要約

最近の進歩により、多くの事前トレーニング済み言語モデル (PLM) が利用できるようになりました。
ただし、下流タスク用に PLM を微調整するために実際にどれだけのデータが必要なのかという疑問が残ります。
この作業では、教師なしのコアセット選択を利用してダウンストリーム タスクの PLM を微調整するために必要なデータ量を最小限に抑える、データ効率の高い微調整フレームワークである DEFT を紹介します。
テキスト編集 LM のコンテキストで DEFT フレームワークの有効性を実証し、最先端のテキスト編集モデルである CoEDIT (Raheja et al., 2023) と比較します。
私たちの定量的および定性的結果は、DEFT モデルが CoEDIT と同じくらい正確でありながら、約 70% 少ないデータで微調整されていることを示しています。

要約(オリジナル)

Recent advances have led to the availability of many pre-trained language models (PLMs); however, a question that remains is how much data is truly needed to fine-tune PLMs for downstream tasks? In this work, we introduce DEFT, a data-efficient fine-tuning framework that leverages unsupervised core-set selection to minimize the amount of data needed to fine-tune PLMs for downstream tasks. We demonstrate the efficacy of our DEFT framework in the context of text-editing LMs, and compare to the state-of-the art text-editing model, CoEDIT (Raheja et al., 2023). Our quantitative and qualitative results demonstrate that DEFT models are just as accurate as CoEDIT while being finetuned on ~70% less data.

arxiv情報

著者 Devleena Das,Vivek Khetan
発行日 2023-10-25 17:06:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク