A*Net and NBFNet Learn Negative Patterns on Knowledge Graphs

要約

この技術レポートでは、ナレッジ グラフの完成に関して、ルールベースのアプローチと GNN アーキテクチャ NBFNet および A*Net の予測パフォーマンスの違いを調査します。
最も一般的な 2 つのベンチマークでは、パフォーマンスの違いのかなりの部分が、ルールベースのアプローチでは隠されている各データセットの 1 つの固有のネガティブ パターンによって説明できることがわかりました。
私たちの発見は、ナレッジ グラフの完成におけるさまざまなモデル クラスのパフォーマンスの違いに関する独自の視点を追加します。モデルは、正しいファクトに高いスコアを与えるのではなく、間違ったファクトのスコアにペナルティを与えることで、予測パフォーマンスの利点を実現できます。

要約(オリジナル)

In this technical report, we investigate the predictive performance differences of a rule-based approach and the GNN architectures NBFNet and A*Net with respect to knowledge graph completion. For the two most common benchmarks, we find that a substantial fraction of the performance difference can be explained by one unique negative pattern on each dataset that is hidden from the rule-based approach. Our findings add a unique perspective on the performance difference of different model classes for knowledge graph completion: Models can achieve a predictive performance advantage by penalizing scores of incorrect facts opposed to providing high scores for correct facts.

arxiv情報

著者 Patrick Betz,Nathanael Stelzner,Christian Meilicke,Heiner Stuckenschmidt,Christian Bartelt
発行日 2024-12-06 15:15:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク