Enhancing Heterogeneous Knowledge Graph Completion with a Novel GAT-based Approach

要約

ナレッジ グラフ (KG) は、検索結果と推奨システムを強化する上で重要な役割を果たします。
KG のサイズが急速に増大するにつれて、KG は不正確かつ不完全になってきています。
この問題は、知識グラフ補完手法によって解決できます。その中でも、グラフ アテンション ネットワーク (GAT) ベースの手法は、その優れたパフォーマンスにより際立っています。
ただし、既存の GAT ベースのナレッジ グラフの完成方法では、主にサンプル数の不均衡が原因で、異種のナレッジ グラフを扱うときに過剰適合の問題が発生することがよくあります。
さらに、これらの方法は、他のメソッドと同じリレーションおよびヘッド (テール) エンティティを共有するテール (ヘッド) エンティティを予測する際のパフォーマンスが低いことを示しています。
これらの問題を解決するために、異種 KG 用に設計された新しい GAT ベースの手法である GATH を提案します。
GATH には、失われたエンティティを予測するために相乗的に機能する 2 つの個別のアテンション ネットワーク モジュールが組み込まれています。
また、新しいエンコーディングと特徴変換のアプローチも導入し、不均衡なサンプルを含むシナリオでの GATH の堅牢なパフォーマンスを可能にします。
GATH の性能を評価するために、包括的な実験が行われます。
Hits@10 および MRR メトリクスに関する既存の SOTA GAT ベースのモデルと比較して、私たちのモデルは、FB15K-237 データセットで 5.2% と 5.2%、WN18RR データセットで 4.5% と 14.6% パフォーマンスを向上させます。

要約(オリジナル)

Knowledge graphs (KGs) play a vital role in enhancing search results and recommendation systems. With the rapid increase in the size of the KGs, they are becoming inaccuracy and incomplete. This problem can be solved by the knowledge graph completion methods, of which graph attention network (GAT)-based methods stand out since their superior performance. However, existing GAT-based knowledge graph completion methods often suffer from overfitting issues when dealing with heterogeneous knowledge graphs, primarily due to the unbalanced number of samples. Additionally, these methods demonstrate poor performance in predicting the tail (head) entity that shares the same relation and head (tail) entity with others. To solve these problems, we propose GATH, a novel GAT-based method designed for Heterogeneous KGs. GATH incorporates two separate attention network modules that work synergistically to predict the missing entities. We also introduce novel encoding and feature transformation approaches, enabling the robust performance of GATH in scenarios with imbalanced samples. Comprehensive experiments are conducted to evaluate the GATH’s performance. Compared with the existing SOTA GAT-based model on Hits@10 and MRR metrics, our model improves performance by 5.2% and 5.2% on the FB15K-237 dataset, and by 4.5% and 14.6% on the WN18RR dataset, respectively.

arxiv情報

著者 Wanxu Wei,Yitong Song,Bin Yao
発行日 2024-08-05 13:28:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク