Beyond Transduction: A Survey on Inductive, Few Shot, and Zero Shot Link Prediction in Knowledge Graphs

要約

ナレッジ グラフ (KG) は、異なる意味論的な意味の関係によって相互接続されたエンティティで構成されます。
KG は幅広い用途で使用されています。
ただし、それらは本質的に不完全性、つまりエンティティまたはエンティティに関する事実が欠落しているという問題があります。
その結果、より多くの作業は、一般にリンク予測 (LP) と呼ばれる、KG 内の欠落情報の補完に焦点を当てています。
このタスクは、テスト セット内のすべてのエンティティと関係がトレーニング中に観察されるトランスダクティブ設定で伝統的かつ広範囲に研究されてきました。
最近、いくつかの研究が、テスト セット内のエンティティや関係がトレーニング中に観察されなかったり、少数のファクトにしか現れなかったりする、より困難な設定で LP タスクに取り組んでいます。
これらの作業は、帰納的、少数ショット、およびゼロショット リンク予測として知られています。
この研究では、この分野の既存の研究を体系的にレビューします。
徹底的な分析の結果、前述の設定で異なる用語やタスク定義が存在するという望ましくないことが指摘され、それが最近の作品間の比較の可能性をさらに制限しています。
したがって、私たちは各設定を徹底的に分析し、その本質的な特徴を明らかにすることを目指しています。
最終的には、それぞれを単純かつ一貫した方法で参照するための統一命名法が提案されます。

要約(オリジナル)

Knowledge graphs (KGs) comprise entities interconnected by relations of different semantic meanings. KGs are being used in a wide range of applications. However, they inherently suffer from incompleteness, i.e. entities or facts about entities are missing. Consequently, a larger body of works focuses on the completion of missing information in KGs, which is commonly referred to as link prediction (LP). This task has traditionally and extensively been studied in the transductive setting, where all entities and relations in the testing set are observed during training. Recently, several works have tackled the LP task under more challenging settings, where entities and relations in the test set may be unobserved during training, or appear in only a few facts. These works are known as inductive, few-shot, and zero-shot link prediction. In this work, we conduct a systematic review of existing works in this area. A thorough analysis leads us to point out the undesirable existence of diverging terminologies and task definitions for the aforementioned settings, which further limits the possibility of comparison between recent works. We consequently aim at dissecting each setting thoroughly, attempting to reveal its intrinsic characteristics. A unifying nomenclature is ultimately proposed to refer to each of them in a simple and consistent manner.

arxiv情報

著者 Nicolas Hubert,Pierre Monnin,Heiko Paulheim
発行日 2023-12-08 12:13:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク