Treat Different Negatives Differently: Enriching Loss Functions with Domain and Range Constraints for Link Prediction

要約

ナレッジ グラフ埋め込みモデル (KGEM) は、リンク予測など、ナレッジ グラフ (KG) に関連するさまざまなタスクに使用されます。
これらは、スコア付けされたトリプルとそれに対応するラベルのバッチを考慮して計算される損失関数を使用してトレーニングされます。
従来のアプローチでは、トリプルのラベルが true または false であると見なされます。
しかし、最近の研究では、すべての負のトリプルを同等に評価すべきではないことが示唆されています。
この最近の仮定に沿って、負のトリプルは意味的に有効であると仮定します。
ドメインと範囲の制約は、高品質の負のトリプルである可能性があります。
したがって、損失関数は、それらを意味的に無効な負の関数とは異なる方法で扱う必要があります。
この目的のために、リンク予測のための 3 つの主要な損失関数のセマンティック駆動バージョンを提案します。
広範で制御された実験設定において、提案された損失関数が、異なるスキーマで裏付けられた 3 つの公開ベンチマーク KG で体系的に満足のいく結果を提供することを示し、これは、提案されたアプローチの一般性と優位性の両方を実証します。
実際、提案された損失関数は、(1) MRR および Hits@10 値の向上につながり、(2) Sem@K メトリックによって測定されるように、KGEM のセマンティック認識を向上させます。
これは、セマンティック情報が KGEM を全体的に改善するため、損失関数に組み込む必要があることを強調しています。
関係のドメインと範囲は主にスキーマ定義の KG で利用できるため、私たちのアプローチは有益であり、実際に広く使用できるものになります。

要約(オリジナル)

Knowledge graph embedding models (KGEMs) are used for various tasks related to knowledge graphs (KGs), including link prediction. They are trained with loss functions that are computed considering a batch of scored triples and their corresponding labels. Traditional approaches consider the label of a triple to be either true or false. However, recent works suggest that all negative triples should not be valued equally. In line with this recent assumption, we posit that negative triples that are semantically valid w.r.t. domain and range constraints might be high-quality negative triples. As such, loss functions should treat them differently from semantically invalid negative ones. To this aim, we propose semantic-driven versions for the three main loss functions for link prediction. In an extensive and controlled experimental setting, we show that the proposed loss functions systematically provide satisfying results on three public benchmark KGs underpinned with different schemas, which demonstrates both the generality and superiority of our proposed approach. In fact, the proposed loss functions do (1) lead to better MRR and Hits@10 values, (2) drive KGEMs towards better semantic awareness as measured by the Sem@K metric. This highlights that semantic information globally improves KGEMs, and thus should be incorporated into loss functions. Domains and ranges of relations being largely available in schema-defined KGs, this makes our approach both beneficial and widely usable in practice.

arxiv情報

著者 Nicolas Hubert,Pierre Monnin,Armelle Brun,Davy Monticolo
発行日 2023-08-08 11:34:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク