要約
事前トレーニング済み言語モデル (PLM) に基づいたイベント相互参照解決 (ECR) システムは、ドキュメント全体にわたる相互参照イベントのクラスタリングにおいて優れたパフォーマンスを実証しました。
しかし、既存のシステムは、入力された言及ペア テキスト内の「語彙一致をトリガーする」偽のパターンに過度に依存しています。
我々は、構造因果モデル(SCM)を使用してベースライン ECR システムの意思決定プロセスを形式化し、ECR タスク内の誤った因果関係 (つまり、理論的根拠) を特定することを目的としています。
反事実データ拡張のバイアス除去機能を活用して、LLM インザループを使用した合理性中心の反事実データ拡張手法を開発します。
この手法は、ECR システムでのペアごとの入力に特化しており、トリガーとコンテキストに直接介入して、因果関係を強調しながら偽の関連性を軽減します。
私たちのアプローチは、3 つの一般的なクロスドキュメント ECR ベンチマークで最先端のパフォーマンスを達成し、ドメイン外のシナリオでの堅牢性を実証します。
要約(オリジナル)
Based on Pre-trained Language Models (PLMs), event coreference resolution (ECR) systems have demonstrated outstanding performance in clustering coreferential events across documents. However, the existing system exhibits an excessive reliance on the `triggers lexical matching’ spurious pattern in the input mention pair text. We formalize the decision-making process of the baseline ECR system using a Structural Causal Model (SCM), aiming to identify spurious and causal associations (i.e., rationales) within the ECR task. Leveraging the debiasing capability of counterfactual data augmentation, we develop a rationale-centric counterfactual data augmentation method with LLM-in-the-loop. This method is specialized for pairwise input in the ECR system, where we conduct direct interventions on triggers and context to mitigate the spurious association while emphasizing the causation. Our approach achieves state-of-the-art performance on three popular cross-document ECR benchmarks and demonstrates robustness in out-of-domain scenarios.
arxiv情報
著者 | Bowen Ding,Qingkai Min,Shengkun Ma,Yingjie Li,Linyi Yang,Yue Zhang |
発行日 | 2024-05-08 04:07:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google