Exploring & Exploiting High-Order Graph Structure for Sparse Knowledge Graph Completion

要約

スパース ナレッジ グラフ (KG) シナリオは、以前のナレッジ グラフ補完 (KGC) メソッドに課題をもたらします。つまり、グラフのスパース性が高まると、補完パフォーマンスが急速に低下します。
この問題は、実際のアプリケーションではまばらな KG が広く存在するためにさらに悪化します。
この課題を軽減するために、我々は、エンティティ間の貴重な長距離依存関係を自動的に捕捉して、不十分な構造特徴を補い、まばらな KGC の論理的推論知識を抽出できる新しいフレームワーク LR-GCN を提案します。
提案されたアプローチは、GNN ベースの予測器と推論パス蒸留器という 2 つの主要コンポーネントで構成されます。
推論パス蒸留器は、推論パスなどの高次のグラフ構造を探索し、それらをリッチ セマンティック エッジとしてエンコードし、長距離の依存関係を予測子に明示的に合成します。
このステップは、KG の密度を高める上でも重要な役割を果たし、希薄な問題を効果的に軽減します。
さらに、パス蒸留器は、これらのマイニングされた推論パスから論理推論の知識をさらに抽出して予測子に取り込みます。
これら 2 つのコンポーネントは、適切に設計された変分 EM アルゴリズムを使用して共同で最適化されます。
4 つのまばらなベンチマークに関する広範な実験と分析により、私たちが提案した方法の有効性が実証されました。

要約(オリジナル)

Sparse knowledge graph (KG) scenarios pose a challenge for previous Knowledge Graph Completion (KGC) methods, that is, the completion performance decreases rapidly with the increase of graph sparsity. This problem is also exacerbated because of the widespread existence of sparse KGs in practical applications. To alleviate this challenge, we present a novel framework, LR-GCN, that is able to automatically capture valuable long-range dependency among entities to supplement insufficient structure features and distill logical reasoning knowledge for sparse KGC. The proposed approach comprises two main components: a GNN-based predictor and a reasoning path distiller. The reasoning path distiller explores high-order graph structures such as reasoning paths and encodes them as rich-semantic edges, explicitly compositing long-range dependencies into the predictor. This step also plays an essential role in densifying KGs, effectively alleviating the sparse issue. Furthermore, the path distiller further distills logical reasoning knowledge from these mined reasoning paths into the predictor. These two components are jointly optimized using a well-designed variational EM algorithm. Extensive experiments and analyses on four sparse benchmarks demonstrate the effectiveness of our proposed method.

arxiv情報

著者 Tao He,Ming Liu,Yixin Cao,Zekun Wang,Zihao Zheng,Zheng Chu,Bing Qin
発行日 2023-06-29 15:35:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク