Hierarchical Relational Learning for Few-Shot Knowledge Graph Completion

要約

知識グラフ(KG)はその大規模性と知識推論能力で知られているが、それに伴う不完全性でも有名である。知識グラフの関係はロングテールに分布しているため、不完全性を緩和し、知識グラフのカバレッジを広げるための解決策として、数発の知識グラフ補完が提案されています。これは、新規な関係を含むトリプレットに対して、数個の学習トリプレットが参照として提供されるだけで予測を行うことを目的としている。これまでの手法は、エンティティレベルの情報を学習するための局所近傍集計器の設計や、メタ関係情報を学習するためのトリプレットレベルでの逐次依存関係の仮定に主に焦点を当てていた。しかし、トリプレットのペアレベルの相互作用やコンテキストレベルの関係情報は、数ショット関係のメタ情報を学習する上で見落とされてきた。本論文では、少数ショットKG補完のための階層的関係学習法(HiRe)を提案する。HiReは3つのレベルの関係情報(エンティティレベル、トリプレットレベル、コンテキストレベル)を同時に捉えることにより、少数ショット関係のメタ表現を効果的に学習・改良し、結果として新しい未知の関係に対して非常によく汎化することが可能である。2つのベンチマークデータセットを用いた広範な実験により、他の最先端手法に対するHiReの優位性を検証する。

要約(オリジナル)

Knowledge graphs (KGs) are known for their large scale and knowledge inference ability, but are also notorious for the incompleteness associated with them. Due to the long-tail distribution of the relations in KGs, few-shot KG completion has been proposed as a solution to alleviate incompleteness and expand the coverage of KGs. It aims to make predictions for triplets involving novel relations when only a few training triplets are provided as reference. Previous methods have mostly focused on designing local neighbor aggregators to learn entity-level information and/or imposing sequential dependency assumption at the triplet level to learn meta relation information. However, valuable pairwise triplet-level interactions and context-level relational information have been largely overlooked for learning meta representations of few-shot relations. In this paper, we propose a hierarchical relational learning method (HiRe) for few-shot KG completion. By jointly capturing three levels of relational information (entity-level, triplet-level and context-level), HiRe can effectively learn and refine the meta representation of few-shot relations, and consequently generalize very well to new unseen relations. Extensive experiments on two benchmark datasets validate the superiority of HiRe against other state-of-the-art methods.

arxiv情報

著者 Han Wu,Jianyuan Guo,Bala Rajaratnam,Jie Yin
発行日 2022-09-02 17:57:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク