要約
結合エンティティと関係の抽出は、情報抽出の基本的なタスクであり、名前付きエンティティの認識と関係の抽出という 2 つのサブタスクで構成されます。
しかし、既存の結合抽出法のほとんどは、特徴の混乱や 2 つのサブタスク間の不適切な相互作用の問題を抱えています。
これらの課題に対処するために、この研究では、共同エンティティと関係抽出 (CARE) のための Co-Attend ネットワークを提案します。
私たちのアプローチには、機能の重複や混乱を避けることを目的として、サブタスクごとに個別の表現を学習する並列エンコード戦略の採用が含まれています。
私たちのアプローチの中核となるのは、2 つのサブタスク間の双方向の相互作用をキャプチャする同時注意モジュールです。これにより、モデルがエンティティ情報を関係予測に活用したり、その逆を可能にしたりして、相互強化を促進できます。
結合エンティティと関係の抽出のための 3 つのベンチマーク データセット (NYT、WebNLG、および SciERC) での広範な実験を通じて、提案したモデルが既存のベースライン モデルよりも優れていることを実証しました。
私たちのコードは https://github.com/kwj0x7f/CARE で入手できます。
要約(オリジナル)
Joint entity and relation extraction is the fundamental task of information extraction, consisting of two subtasks: named entity recognition and relation extraction. However, most existing joint extraction methods suffer from issues of feature confusion or inadequate interaction between the two subtasks. Addressing these challenges, in this work, we propose a Co-Attention network for joint entity and Relation Extraction (CARE). Our approach includes adopting a parallel encoding strategy to learn separate representations for each subtask, aiming to avoid feature overlap or confusion. At the core of our approach is the co-attention module that captures two-way interaction between the two subtasks, allowing the model to leverage entity information for relation prediction and vice versa, thus promoting mutual enhancement. Through extensive experiments on three benchmark datasets for joint entity and relation extraction (NYT, WebNLG, and SciERC), we demonstrate that our proposed model outperforms existing baseline models. Our code will be available at https://github.com/kwj0x7f/CARE.
arxiv情報
著者 | Wenjun Kong,Yamei Xia |
発行日 | 2024-03-27 13:46:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google