要約
帰納的知識グラフの完成は、トレーニング中に観察されない新しいエンティティ間で欠落しているトリプレットを予測するタスクとして考えられてきました。
ほとんどの帰納的ナレッジ グラフ完成方法では、すべてのエンティティが新しい可能性があると想定されていますが、推論時に新しい関係が現れることは許可されません。
この制限により、既存の方法では、新しいエンティティが新しい関係を伴う現実世界のナレッジ グラフを適切に処理できなくなります。
この論文では、推論時に新しい関係と新しいエンティティの埋め込みを生成できる、帰納的知識 GRAph eMbedding メソッド InGram を提案します。
ナレッジ グラフが与えられた場合、関係グラフを、関係とそれらの間の親和性の重みから構成される重み付きグラフとして定義します。
関係グラフと元のナレッジ グラフに基づいて、InGram は、アテンション メカニズムを使用して、隣接するエンベディングを集約して関係エンティティ エンベディングを生成する方法を学習します。
実験結果は、InGram がさまざまな帰納的学習シナリオにおいて 14 の異なる最先端の方法よりも優れたパフォーマンスを発揮することを示しています。
要約(オリジナル)
Inductive knowledge graph completion has been considered as the task of predicting missing triplets between new entities that are not observed during training. While most inductive knowledge graph completion methods assume that all entities can be new, they do not allow new relations to appear at inference time. This restriction prohibits the existing methods from appropriately handling real-world knowledge graphs where new entities accompany new relations. In this paper, we propose an INductive knowledge GRAph eMbedding method, InGram, that can generate embeddings of new relations as well as new entities at inference time. Given a knowledge graph, we define a relation graph as a weighted graph consisting of relations and the affinity weights between them. Based on the relation graph and the original knowledge graph, InGram learns how to aggregate neighboring embeddings to generate relation and entity embeddings using an attention mechanism. Experimental results show that InGram outperforms 14 different state-of-the-art methods on varied inductive learning scenarios.
arxiv情報
著者 | Jaejun Lee,Chanyoung Chung,Joyce Jiyoung Whang |
発行日 | 2023-05-31 16:10:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google