PIEClass: Weakly-Supervised Text Classification with Prompting and Noise-Robust Iterative Ensemble Training

要約

弱い教師付きテキスト分類では、各ターゲット クラスのラベル名を唯一の教師として使用して分類子をトレーニングします。これにより、人間による注釈の労力が大幅に軽減されます。
既存のメソッドのほとんどは、最初にラベル名を静的なキーワードベースの特徴として使用して擬似ラベルを生成し、その後、最終的な分類子のトレーニングに使用します。
合理的ではありますが、このような一般的に採用されているフレームワークには 2 つの制限があります。(1) キーワードはコンテキストによって異なる意味を持ち、一部のテキストにはキーワードが含まれていない可能性があるため、キーワードの一致によってノイズが多く不適切な擬似ラベルが生成される可能性があります。
(2) 擬似ラベル生成段階で発生したエラーは、修正されることなく、分類器トレーニング段階に直接伝播します。
この論文では、次の 2 つのモジュールで構成される新しいメソッド PIEClass を提案します。 (1) 事前トレーニング済み言語モデル (PLM) のゼロショット プロンプトを使用して、文脈を超えたテキストの理解に基づいて擬似ラベルを取得する擬似ラベル取得モジュール
静的キーワード マッチング、および (2) 相互に正規化する 2 つの PLM 微調整メソッドを利用して、分類器を反復的にトレーニングし、擬似ラベルを更新する、ノイズに強い反復アンサンブル トレーニング モジュール。
広範な実験により、PIEClass は 7 つのベンチマーク データセットで既存の強力なベースラインよりも全体的に優れたパフォーマンスを達成し、センチメント分類タスクでは完全教師あり分類子と同様のパフォーマンスを達成することが示されています。

要約(オリジナル)

Weakly-supervised text classification trains a classifier using the label name of each target class as the only supervision, which largely reduces human annotation efforts. Most existing methods first use the label names as static keyword-based features to generate pseudo labels, which are then used for final classifier training. While reasonable, such a commonly adopted framework suffers from two limitations: (1) keywords can have different meanings in different contexts and some text may not have any keyword, so keyword matching can induce noisy and inadequate pseudo labels; (2) the errors made in the pseudo label generation stage will directly propagate to the classifier training stage without a chance of being corrected. In this paper, we propose a new method, PIEClass, consisting of two modules: (1) a pseudo label acquisition module that uses zero-shot prompting of pre-trained language models (PLM) to get pseudo labels based on contextualized text understanding beyond static keyword matching, and (2) a noise-robust iterative ensemble training module that iteratively trains classifiers and updates pseudo labels by utilizing two PLM fine-tuning methods that regularize each other. Extensive experiments show that PIEClass achieves overall better performance than existing strong baselines on seven benchmark datasets and even achieves similar performance to fully-supervised classifiers on sentiment classification tasks.

arxiv情報

著者 Yunyi Zhang,Minhao Jiang,Yu Meng,Yu Zhang,Jiawei Han
発行日 2023-10-20 15:14:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク