CARE: Co-Attention Network for Joint Entity and Relation Extraction

要約

結合エンティティと関係の抽出は、情報抽出の基本的なタスクであり、名前付きエンティティの認識と関係の抽出という 2 つのサブタスクで構成されます。
既存の結合抽出法のほとんどは、機能の混乱や 2 つのサブタスク間の不適切な相互作用の問題を抱えています。
この研究では、共同エンティティと関係抽出 (CARE) のための Co-Attend ネットワークを提案します。
私たちのアプローチには、特徴の重複を避けることを目的として、サブタスクごとに個別の表現を学習することが含まれます。
私たちのアプローチの中核となるのは、2 つのサブタスク間の双方向の対話をキャプチャする同時注意モジュールです。これにより、モデルがエンティティ情報を関係予測に活用したり、その逆を可能にしたりして、相互強化を促進できます。
3 つの共同エンティティ関係抽出ベンチマーク データセット (NYT、WebNLG、SciERC) に対する広範な実験により、提案されたモデルが既存のベースライン モデルを上回る優れたパフォーマンスを達成することが示されました。

要約(オリジナル)

Joint entity and relation extraction is the fundamental task of information extraction, consisting of two subtasks: named entity recognition and relation extraction. Most existing joint extraction methods suffer from issues of feature confusion or inadequate interaction between two subtasks. In this work, we propose a Co-Attention network for joint entity and Relation Extraction (CARE). Our approach involves learning separate representations for each subtask, aiming to avoid feature overlap. At the core of our approach is the co-attention module that captures two-way interaction between two subtasks, allowing the model to leverage entity information for relation prediction and vice versa, thus promoting mutual enhancement. Extensive experiments on three joint entity-relation extraction benchmark datasets (NYT, WebNLG and SciERC) show that our proposed model achieves superior performance, surpassing existing baseline models.

arxiv情報

著者 Wenjun Kong,Yamei Xia
発行日 2023-08-24 03:40:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク