FreeAL: Towards Human-Free Active Learning in the Era of Large Language Models

要約

モデルのトレーニング用に高品質のラベル付きデータを収集することは、さまざまな NLP タスクにとって時間と労力がかかることで知られています。
小規模言語モデル (SLM) のアクティブ ラーニングや、大規模言語モデル (LLM) の時代に普及しているコンテキスト内学習など、多数のソリューションが提案されており、ラベル付けの負担はある程度軽減されていますが、そのパフォーマンスは依然として影響を受けます。
人間の介入。
LLM 時代にアノテーションのコストを削減する方法はまだ検討されていません。
これを橋渡しするために、私たちは従来のアクティブ ラーニングに革命を起こし、LLM からタスク固有の知識をインタラクティブに抽出してフィルタリングする革新的な協調学習フレームワーク FreeAL を提案します。
共同トレーニング中、LLM は大まかな知識を教え込むアクティブなアノテーターとして機能しますが、下流の SLM は学生として高品質のコンテキスト内のサンプルをフィルタリングして、後続のラベル精製に LLM をフィードバックします。
8 つのベンチマーク データセットに対する広範な実験により、FreeAL が人間の監視なしで SLM と LLM の両方のゼロショット パフォーマンスを大幅に向上させることが実証されました。
コードは https://github.com/Justherozen/FreeAL で入手できます。

要約(オリジナル)

Collecting high-quality labeled data for model training is notoriously time-consuming and labor-intensive for various NLP tasks. While copious solutions, such as active learning for small language models (SLMs) and prevalent in-context learning in the era of large language models (LLMs), have been proposed and alleviate the labeling burden to some extent, their performances are still subject to human intervention. It is still underexplored how to reduce the annotation cost in the LLMs era. To bridge this, we revolutionize traditional active learning and propose an innovative collaborative learning framework FreeAL to interactively distill and filter the task-specific knowledge from LLMs. During collaborative training, an LLM serves as an active annotator inculcating its coarse-grained knowledge, while a downstream SLM is incurred as a student to filter out high-quality in-context samples to feedback LLM for the subsequent label refinery. Extensive experiments on eight benchmark datasets demonstrate that FreeAL largely enhances the zero-shot performances for both SLM and LLM without any human supervision. The code is available at https://github.com/Justherozen/FreeAL .

arxiv情報

著者 Ruixuan Xiao,Yiwen Dong,Junbo Zhao,Runze Wu,Minmin Lin,Gang Chen,Haobo Wang
発行日 2023-11-27 08:23:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク