要約
従来のナレッジ グラフ構築 (KGC) アプローチは通常、事前定義されたスキーマの閉じたセットを使用した静的情報抽出パラダイムに従います。
結果として、そのようなアプローチは動的なシナリオやドメインに適用すると不十分ですが、新しいタイプの知識が生まれます。
これには、進化するスキーマを自動的に処理して KGC の情報を抽出できるシステムが必要です。
このニーズに対処するために、私たちはスキーマ適応 KGC と呼ばれる新しいタスクを提案します。これは、再トレーニングすることなく、動的に変化するスキーマ グラフに基づいてエンティティ、関係、イベントを継続的に抽出することを目的としています。
まず、水平スキーマ拡張、垂直スキーマ拡張、ハイブリッド スキーマ拡張という 3 つの原則に基づいて既存のデータセットを分割および変換し、ベンチマークを構築します。
次に、Text2Event、TANL、UIE、GPT-3.5 などのいくつかのよく知られたアプローチのスキーマ適応パフォーマンスを調査します。
さらに、\textsc{AdaKGC} と呼ばれるシンプルかつ効果的なベースラインを提案します。これには、進化するスキーマをより適切に処理するためのスキーマ強化されたプレフィックス インストラクターとスキーマ条件付き動的デコーディングが含まれています。
包括的な実験結果は、AdaKGC がベースラインを上回るパフォーマンスを発揮できるものの、まだ改善の余地があることを示しています。
私たちは、提案された取り組みがコミュニティに利益をもたらすことを願っています。
コードとデータセットは https://github.com/zjunlp/AdaKGC で入手できます。
要約(オリジナル)
Conventional Knowledge Graph Construction (KGC) approaches typically follow the static information extraction paradigm with a closed set of pre-defined schema. As a result, such approaches fall short when applied to dynamic scenarios or domains, whereas a new type of knowledge emerges. This necessitates a system that can handle evolving schema automatically to extract information for KGC. To address this need, we propose a new task called schema-adaptable KGC, which aims to continually extract entity, relation, and event based on a dynamically changing schema graph without re-training. We first split and convert existing datasets based on three principles to build a benchmark, i.e., horizontal schema expansion, vertical schema expansion, and hybrid schema expansion; then investigate the schema-adaptable performance of several well-known approaches such as Text2Event, TANL, UIE and GPT-3.5. We further propose a simple yet effective baseline dubbed \textsc{AdaKGC}, which contains schema-enriched prefix instructor and schema-conditioned dynamic decoding to better handle evolving schema. Comprehensive experimental results illustrate that AdaKGC can outperform baselines but still have room for improvement. We hope the proposed work can deliver benefits to the community. Code and datasets available at https://github.com/zjunlp/AdaKGC.
arxiv情報
著者 | Hongbin Ye,Honghao Gui,Xin Xu,Xi Chen,Huajun Chen,Ningyu Zhang |
発行日 | 2023-11-15 12:55:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google