要約
最近の進歩により、多くの事前トレーニング済み言語モデル (PLM) が利用できるようになりました。
ただし、下流タスク用に PLM を微調整するために実際にどれだけのデータが必要なのかという疑問が残ります。
この作業では、教師なしのコアセット選択を利用してダウンストリーム タスクの PLM を微調整するために必要なデータ量を最小限に抑える、データ効率の高い微調整フレームワークである DEFT を紹介します。
テキスト編集 LM のコンテキストで DEFT フレームワークの有効性を実証し、最先端のテキスト編集モデルである CoEDIT (Raheja et al., 2023) と比較します。
私たちの定量的および定性的結果は、DEFT モデルが CoEDIT と同じくらい正確でありながら、約 70% 少ないデータで微調整されていることを示しています。
要約(オリジナル)
Recent advances have led to the availability of many pre-trained language models (PLMs); however, a question that remains is how much data is truly needed to fine-tune PLMs for downstream tasks? In this work, we introduce DEFT, a data-efficient fine-tuning framework that leverages unsupervised core-set selection to minimize the amount of data needed to fine-tune PLMs for downstream tasks. We demonstrate the efficacy of our DEFT framework in the context of text-editing LMs, and compare to the state-of-the art text-editing model, CoEDIT (Raheja et al., 2023). Our quantitative and qualitative results demonstrate that DEFT models are just as accurate as CoEDIT while being finetuned on ~70% less data.
arxiv情報
著者 | Devleena Das,Vivek Khetan |
発行日 | 2023-10-25 17:06:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google