要約
固有表現の認識と関係抽出は、情報抽出の分野における 2 つの重要かつ困難なサブタスクです。
従来のアプローチによって達成された成功にもかかわらず、基礎的な研究上の疑問は未解決のままです。
まず、最近の研究では、セマンティックな違いを無視して、単一のサブタスクのパラメーター共有または 2 つのサブタスクの両方の共有機能を使用しています。
第 2 に、情報の相互作用は主に 2 つのサブタスクに焦点を当てており、サブタスク固有のエンコード対象、関係、およびオブジェクト間の詳細な情報相互作用は未調査のままです。
前述の制限を動機として、エンティティと関係を共同抽出するための新しいモデルを提案します。
主な新規性は次のとおりです。 (1) 特徴エンコード プロセスを 3 つの部分、つまりエンコード対象、エンコード オブジェクト、およびエンコード関係に分離することを提案します。
このおかげで、きめ細かいサブタスク固有の機能を使用できるようになります。
(2) 情報相互作用を強化し、個々のきめの細かいサブタスク固有の機能を構築するための、新しい集約間戦略と集約内戦略をそれぞれ提案します。
実験結果は、私たちのモデルが以前のいくつかの最先端モデルよりも優れていることを示しています。
大規模な追加実験により、モデルの有効性がさらに確認されました。
要約(オリジナル)
Named Entity Recognition and Relation Extraction are two crucial and challenging subtasks in the field of Information Extraction. Despite the successes achieved by the traditional approaches, fundamental research questions remain open. First, most recent studies use parameter sharing for a single subtask or shared features for both two subtasks, ignoring their semantic differences. Second, information interaction mainly focuses on the two subtasks, leaving the fine-grained informtion interaction among the subtask-specific features of encoding subjects, relations, and objects unexplored. Motivated by the aforementioned limitations, we propose a novel model to jointly extract entities and relations. The main novelties are as follows: (1) We propose to decouple the feature encoding process into three parts, namely encoding subjects, encoding objects, and encoding relations. Thanks to this, we are able to use fine-grained subtask-specific features. (2) We propose novel inter-aggregation and intra-aggregation strategies to enhance the information interaction and construct individual fine-grained subtask-specific features, respectively. The experimental results demonstrate that our model outperforms several previous state-of-the-art models. Extensive additional experiments further confirm the effectiveness of our model.
arxiv情報
著者 | Yao Wang,Xin Liu,Weikun Kong,Hai-Tao Yu,Teeradaj Racharak,Kyoung-Sook Kim,Minh Le Nguyen |
発行日 | 2024-05-14 04:27:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google