要約
Inductive Knowledge Graph Completion (KGC) は、ナレッジ グラフ (KG) 内で新たに出現したエンティティ間で欠落している事実を推論することを目的としており、重大な課題を引き起こします。
最近の研究では、知識サブグラフ推論によるこのようなエンティティの推論において有望な結果が示されていますが、(i) 同様の関係の意味論的矛盾、および (ii) 新興エンティティに対する説得力のない知識の存在による KG に固有のノイズの多い相互作用に悩まされています。
これらの課題に対処するために、帰納的 KGC 用のセマンティック構造認識ノイズ除去ネットワーク (S$^2$DN) を提案します。
私たちの目標は、KG 内で信頼できる対話を維持しながら、一貫した意味論的な知識を蒸留するために、適応可能な一般的な意味論と信頼できる構造を学習することです。
具体的には、関係の普遍的な意味的知識を保持するために、囲んでいるサブグラフに対して意味的平滑化モジュールを導入します。
信頼性の低い相互作用をフィルタリングして追加の知識を提供する構造洗練モジュールを組み込んで、ターゲット リンクの周囲の堅牢な構造を維持します。
3 つのベンチマーク KG で行われた広範な実験により、S$^2$DN が最先端モデルのパフォーマンスを上回ることが実証されました。
これらの結果は、S$^2$DNが意味の一貫性を維持し、汚染されたKGの信頼性の低い相互作用をフィルタリングして除去する堅牢性を強化するという効果を示しています。
要約(オリジナル)
Inductive Knowledge Graph Completion (KGC) aims to infer missing facts between newly emerged entities within knowledge graphs (KGs), posing a significant challenge. While recent studies have shown promising results in inferring such entities through knowledge subgraph reasoning, they suffer from (i) the semantic inconsistencies of similar relations, and (ii) noisy interactions inherent in KGs due to the presence of unconvincing knowledge for emerging entities. To address these challenges, we propose a Semantic Structure-aware Denoising Network (S$^2$DN) for inductive KGC. Our goal is to learn adaptable general semantics and reliable structures to distill consistent semantic knowledge while preserving reliable interactions within KGs. Specifically, we introduce a semantic smoothing module over the enclosing subgraphs to retain the universal semantic knowledge of relations. We incorporate a structure refining module to filter out unreliable interactions and offer additional knowledge, retaining robust structure surrounding target links. Extensive experiments conducted on three benchmark KGs demonstrate that S$^2$DN surpasses the performance of state-of-the-art models. These results demonstrate the effectiveness of S$^2$DN in preserving semantic consistency and enhancing the robustness of filtering out unreliable interactions in contaminated KGs.
arxiv情報
著者 | Tengfei Ma,Yujie Chen,Liang Wang,Xuan Lin,Bosheng Song,Xiangxiang Zeng |
発行日 | 2024-12-20 12:03:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google