要約
ドキュメントレベルの関係抽出(DOC-RE)は、複数の文のエンティティ間の関係を抽出することを目的としています。
したがって、DOC-REには、文レベルのREと比較して、エンティティ、コンテキスト、および外部の一般的な知識間の複雑な横断的相互作用を含む、人間のようなより包括的な推論能力が必要です。
ただし、ほとんどの既存のDOC-REメソッドは、単一の推論能力の最適化に焦点を当てていますが、長い文書で包括的な推論のために外部の知識を利用する能力がありません。
これらの問題を解決するために、ノウラという名前の知識検索拡張法は、ドックを支援するために外部の知識を受け入れるかどうかを自律的に決定する包括的な推論を提案しました。
まず、セマンティックエンコードのためのドキュメントグラフを作成し、共参照の推論能力を強化するために共参照解像度モデルを統合しました。
次に、一般的な推論のために外部知識ベースを取得することにより、ドキュメントグラフをドキュメント知識グラフに拡張し、無関係な知識を除外するために新しい知識ろ過法を提示しました。
最後に、横断的な論理推論を達成するために、中間エンティティとの直接的および間接的な関連を構築するための軸注意メカニズムを提案しました。
2つのデータセットで実施された広範な実験により、最先端のベースラインと比較して、方法の有効性が確認されました。
私たちのコードは、https://anonymous.4open.science/r/knowraで入手できます。
要約(オリジナル)
Document-level relation extraction (Doc-RE) aims to extract relations between entities across multiple sentences. Therefore, Doc-RE requires more comprehensive reasoning abilities like humans, involving complex cross-sentence interactions between entities, contexts, and external general knowledge, compared to the sentence-level RE. However, most existing Doc-RE methods focus on optimizing single reasoning ability, but lack the ability to utilize external knowledge for comprehensive reasoning on long documents. To solve these problems, a knowledge retrieval augmented method, named KnowRA, was proposed with comprehensive reasoning to autonomously determine whether to accept external knowledge to assist DocRE. Firstly, we constructed a document graph for semantic encoding and integrated the co-reference resolution model to augment the co-reference reasoning ability. Then, we expanded the document graph into a document knowledge graph by retrieving the external knowledge base for common-sense reasoning and a novel knowledge filtration method was presented to filter out irrelevant knowledge. Finally, we proposed the axis attention mechanism to build direct and indirect associations with intermediary entities for achieving cross-sentence logical reasoning. Extensive experiments conducted on two datasets verified the effectiveness of our method compared to the state-of-the-art baselines. Our code is available at https://anonymous.4open.science/r/KnowRA.
arxiv情報
著者 | Chengcheng Mai,Yuxiang Wang,Ziyu Gong,Hanxiang Wang,Yihua Huang |
発行日 | 2025-05-01 12:30:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google