Enhancing Knowledge Graph Embedding Models with Semantic-driven Loss Functions

要約

ナレッジ グラフ埋め込みモデル (KGEM) は、リンク予測など、ナレッジ グラフ (KG) に関連するさまざまなタスクに使用されます。
それらは、スコアリングされたトリプルとそれに対応するラベルのバッチを考慮して計算される損失関数でトレーニングされます。
従来のアプローチでは、トリプルのラベルは true または false であると見なされます。
ただし、最近の研究では、すべての負のトリプルが等しく評価されるべきではないことが示唆されています。
この最近の仮定に沿って、意味的に有効な負のトリプルは高品質の負のトリプルである可能性があると仮定します。
そのため、損失関数は、意味的に無効な負のものとは異なる方法で処理する必要があります。
この目的のために、リンク予測のための 3 つの主要な損失関数のセマンティック駆動バージョンを提案します。
特に、関係ドメインと範囲に関する背景知識を損失関数に注入することにより、負のトリプルのスコアを異なる方法で扱います。
大規模で制御された実験設定では、提案された損失関数が、異なるスキーマで支えられた 3 つの公開ベンチマーク KG で満足のいく結果を体系的に提供することを示します。これは、提案されたアプローチの一般性と優位性の両方を示しています。
実際、提案された損失関数は、(1) より良い MRR と Hits@$10$ 値につながり、(2) KGEM をより良い意味認識に向けて動かします。
これは、セマンティック情報がグローバルに KGEM を改善するため、損失関数に組み込む必要があることを強調しています。
ドメインと関係の範囲は、スキーマ定義の KG で広く利用できるため、私たちのアプローチは有益であり、実際に広く使用できます。

要約(オリジナル)

Knowledge graph embedding models (KGEMs) are used for various tasks related to knowledge graphs (KGs), including link prediction. They are trained with loss functions that are computed considering a batch of scored triples and their corresponding labels. Traditional approaches consider the label of a triple to be either true or false. However, recent works suggest that all negative triples should not be valued equally. In line with this recent assumption, we posit that semantically valid negative triples might be high-quality negative triples. As such, loss functions should treat them differently from semantically invalid negative ones. To this aim, we propose semantic-driven versions for the three main loss functions for link prediction. In particular, we treat the scores of negative triples differently by injecting background knowledge about relation domains and ranges into the loss functions. In an extensive and controlled experimental setting, we show that the proposed loss functions systematically provide satisfying results on three public benchmark KGs underpinned with different schemas, which demonstrates both the generality and superiority of our proposed approach. In fact, the proposed loss functions do (1) lead to better MRR and Hits@$10$ values, (2) drive KGEMs towards better semantic awareness. This highlights that semantic information globally improves KGEMs, and thus should be incorporated into loss functions. Domains and ranges of relations being largely available in schema-defined KGs, this makes our approach both beneficial and widely usable in practice.

arxiv情報

著者 Nicolas Hubert,Pierre Monnin,Armelle Brun,Davy Monticolo
発行日 2023-03-09 13:48:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク