要約
多くのエンティティ、リレーションシップ、エンティティのトリプルを含むナレッジ グラフ (KG) は、ダウンストリーム アプリケーションに豊富な情報を提供します。
非構造化テキストからトリプルを抽出することは広く研究されていますが、そのほとんどは多数のラベル付きインスタンスを必要とします。
使用できるラベル付きデータがほとんどない場合、パフォーマンスは大幅に低下します。
この問題に取り組むために、リレーショナル トリプル抽出 (MG-FTE) のための相互誘導少数ショット学習フレームワークを提案します。
具体的には、私たちの方法は、最初に関係を分類するエンティティガイド付き関係プロトデコーダと、分類された関係に基づいてエンティティを抽出する関係ガイド付きエンティティプロトデコーダで構成されます。
エンティティと関係の間の接続を描画するために、エンティティ抽出と関係分類の両方のパフォーマンスを向上させるプロトレベルの融合モジュールを設計します。
さらに、新しいクロスドメインの少数ショット トリプル抽出タスクが導入されています。
広範な実験により、私たちの方法は、FewRel 1.0 (シングルドメイン) で 12.6 F1 スコア、FewRel 2.0 (クロスドメイン) で 20.5 F1 スコアにより、多くの最先端の方法よりも優れていることが示されています。
要約(オリジナル)
Knowledge graphs (KGs), containing many entity-relation-entity triples, provide rich information for downstream applications. Although extracting triples from unstructured texts has been widely explored, most of them require a large number of labeled instances. The performance will drop dramatically when only few labeled data are available. To tackle this problem, we propose the Mutually Guided Few-shot learning framework for Relational Triple Extraction (MG-FTE). Specifically, our method consists of an entity-guided relation proto-decoder to classify the relations firstly and a relation-guided entity proto-decoder to extract entities based on the classified relations. To draw the connection between entity and relation, we design a proto-level fusion module to boost the performance of both entity extraction and relation classification. Moreover, a new cross-domain few-shot triple extraction task is introduced. Extensive experiments show that our method outperforms many state-of-the-art methods by 12.6 F1 score on FewRel 1.0 (single-domain) and 20.5 F1 score on FewRel 2.0 (cross-domain).
arxiv情報
著者 | Chengmei Yang,Shuai Jiang,Bowei He,Chen Ma,Lianghua He |
発行日 | 2023-06-23 06:15:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google