Utilizing Contextual Clues and Role Correlations for Enhancing Document-level Event Argument Extraction

要約

ドキュメントレベルのイベント引数の抽出は、情報抽出の分野において重要だが困難なタスクです。
現在の主流のアプローチは、主にイベント トリガーとその引数の間の情報の相互作用に焦点を当てており、コンテキストの相互作用が不十分であることと、イベントの相関関係が無視されているという 2 つの制限に直面しています。
ここでは、CARLG (手がかりのコンテキスト集約と役割ベースの潜在ガイダンス) という名前の新しいフレームワークを紹介します。これは、コンテキスト手がかり集約 (CCA) と役割ベースの潜在情報ガイダンス (RLIG) という 2 つの革新的なコンポーネントで構成されます。
CCA モジュールは、事前トレーニングされたエンコーダーから導出されたアテンション ウェイトを活用して、より広範なコンテキスト情報を適応的に同化します。一方、RLIG モジュールは、イベントの役割間の意味論的な相関関係を捕捉することを目的としています。
次に、現在の主流の EAE アプローチの 2 種類に基づいて、CARLG フレームワークを 2 つのバリアントにインスタンス化します。
特に、CARLG フレームワークでは、1% 未満の新しいパラメーターが導入されていますが、パフォーマンスが大幅に向上しています。
RAMS、WikiEvents、および MLEE データセットにわたる包括的な実験により、CARLG の優位性が確認され、主要なベンチマークと比較してパフォーマンスと推論速度の両方の点で大幅な優位性が示されています。
さらなる分析により、提案されたモジュールの有効性が実証されます。

要約(オリジナル)

Document-level event argument extraction is a crucial yet challenging task within the field of information extraction. Current mainstream approaches primarily focus on the information interaction between event triggers and their arguments, facing two limitations: insufficient context interaction and the ignorance of event correlations. Here, we introduce a novel framework named CARLG (Contextual Aggregation of clues and Role-based Latent Guidance), comprising two innovative components: the Contextual Clues Aggregation (CCA) and the Role-based Latent Information Guidance (RLIG). The CCA module leverages the attention weights derived from a pre-trained encoder to adaptively assimilates broader contextual information, while the RLIG module aims to capture the semantic correlations among event roles. We then instantiate the CARLG framework into two variants based on two types of current mainstream EAE approaches. Notably, our CARLG framework introduces less than 1% new parameters yet significantly improving the performance. Comprehensive experiments across the RAMS, WikiEvents, and MLEE datasets confirm the superiority of CARLG, showing significant superiority in terms of both performance and inference speed compared to major benchmarks. Further analyses demonstrate the effectiveness of the proposed modules.

arxiv情報

著者 Wanlong Liu,Dingyi Zeng,Li Zhou,Yichen Xiao,Weishan Kong,Malu Zhang,Shaohuan Cheng,Hongyang Zhao,Wenyu Chen
発行日 2024-03-14 12:39:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク