MsPrompt: Multi-step Prompt Learning for Debiasing Few-shot Event Detection

要約

イベント検出 (ED) は、非構造化テキスト内の重要なトリガー ワードを識別し、それに応じてイベント タイプを予測することを目的としています。
従来の ED モデルは、大量のデータを必要とするため、ラベル付きデータが乏しい実際のアプリケーションに対応できません。
さらに、典型的な ED モデルは、ED データセットに起因するトリガー バイアスによって引き起こされる、コンテキスト バイパスと無効な一般化の問題に直面しています。
したがって、低リソースのシナリオを満たす真の少数ショット パラダイムに焦点を当てます。
特に、少数ショット イベント検出のバイアスを軽減するためのマルチステップ プロンプト学習モデル (MsPrompt) を提案します。このモデルは、次の 3 つのコンポーネントで構成されます: 真の少数ショットに対応する新しいトレーニング セットの構築を目的としたアンダーサンプリング モジュール
設定、コンテキストバイパス問題に取り組むために十分なPLMのイベントセマンティクスと潜在的な事前知識を活用するための知識強化オントロジーを備えたマルチステッププロンプトモジュール、およびスパースデータでイベントを分類する弱点を補うプロトタイプモジュール
そして汎化パフォーマンスを向上させます。
2 つの公開データセット ACE-2005 と FewEvent での実験では、特に厳格な低リソース シナリオにおいて、MsPrompt が最先端のモデルを上回るパフォーマンスを発揮できることが示され、最もパフォーマンスの高いベースラインに対して加重 F1 スコアに関して 11.43% の改善が報告されています。
優れたバイアス除去性能を実現します。

要約(オリジナル)

Event detection (ED) is aimed to identify the key trigger words in unstructured text and predict the event types accordingly. Traditional ED models are too data-hungry to accommodate real applications with scarce labeled data. Besides, typical ED models are facing the context-bypassing and disabled generalization issues caused by the trigger bias stemming from ED datasets. Therefore, we focus on the true few-shot paradigm to satisfy the low-resource scenarios. In particular, we propose a multi-step prompt learning model (MsPrompt) for debiasing few-shot event detection, that consists of the following three components: an under-sampling module targeting to construct a novel training set that accommodates the true few-shot setting, a multi-step prompt module equipped with a knowledge-enhanced ontology to leverage the event semantics and latent prior knowledge in the PLMs sufficiently for tackling the context-bypassing problem, and a prototypical module compensating for the weakness of classifying events with sparse data and boost the generalization performance. Experiments on two public datasets ACE-2005 and FewEvent show that MsPrompt can outperform the state-of-the-art models, especially in the strict low-resource scenarios reporting 11.43% improvement in terms of weighted F1-score against the best-performing baseline and achieving an outstanding debiasing performance.

arxiv情報

著者 Siyuan Wang,Jianming Zheng,Xuejun Hu,Fei Cai,Chengyu Song,Xueshan Luo
発行日 2023-05-16 10:19:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク