Less is More: One-shot Subgraph Reasoning on Large-scale Knowledge Graphs

要約

ナレッジ グラフ (KG) 上の新しい事実を推定するために、リンク プレディクターはグラフ構造から学習し、ローカル証拠を収集して、指定されたクエリに対する答えを見つけます。
ただし、既存の手法は、予測に KG 全体を使用するため、深刻なスケーラビリティの問題を抱えています。これにより、大規模な KG での期待が妨げられ、バニラ サンプリング手法では直接対処できません。
この研究では、効率的かつ適応的な予測を実現するために、ワンショット サブグラフ リンク予測を提案します。
設計原理は、KG 全体に直接作用するのではなく、予測手順が 2 つのステップに分離されることです。つまり、(i) クエリに従って 1 つのサブグラフのみを抽出するステップと、(ii) この単一のクエリ依存のサブグラフで予測するステップです。
ノンパラメトリックで計算効率の高いヒューリスティック Personalized PageRank (PPR) が、潜在的な答えと裏付けとなる証拠を効果的に特定できることを明らかにします。
効率的なサブグラフベースの予測により、データ空間とモデル空間の両方で最適な構成の自動検索をさらに導入します。
経験的に、当社は 5 つの大規模ベンチマークで効率性の向上と優れたパフォーマンスを達成しています。
コードは https://github.com/tmlr-group/one-shot-subgraph で公開されています。

要約(オリジナル)

To deduce new facts on a knowledge graph (KG), a link predictor learns from the graph structure and collects local evidence to find the answer to a given query. However, existing methods suffer from a severe scalability problem due to the utilization of the whole KG for prediction, which hinders their promise on large scale KGs and cannot be directly addressed by vanilla sampling methods. In this work, we propose the one-shot-subgraph link prediction to achieve efficient and adaptive prediction. The design principle is that, instead of directly acting on the whole KG, the prediction procedure is decoupled into two steps, i.e., (i) extracting only one subgraph according to the query and (ii) predicting on this single, query dependent subgraph. We reveal that the non-parametric and computation-efficient heuristics Personalized PageRank (PPR) can effectively identify the potential answers and supporting evidence. With efficient subgraph-based prediction, we further introduce the automated searching of the optimal configurations in both data and model spaces. Empirically, we achieve promoted efficiency and leading performances on five large-scale benchmarks. The code is publicly available at: https://github.com/tmlr-group/one-shot-subgraph.

arxiv情報

著者 Zhanke Zhou,Yongqi Zhang,Jiangchao Yao,Quanming Yao,Bo Han
発行日 2024-03-15 12:00:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.SI パーマリンク