要約
ナレッジ グラフ補完 (KGC) は、既知のトリプルから欠落リンクを予測することでナレッジ グラフ (KG) の不完全性を解決することを目的としています。埋め込みを学習することで KGC を実行するために、多数のナレッジ グラフ エンベディング (KGE) モデルが提案されています。
それにもかかわらず、既存の埋め込みモデルのほとんどは、各関係を固有のベクトルにマッピングし、さまざまなエンティティの下でのそれらの特定のきめの細かいセマンティクスを無視しています。
さらに、利用可能ないくつかのきめの細かいセマンティック モデルはクラスタリング アルゴリズムに依存しているため、煩雑な 2 段階のトレーニング プロセスによりパフォーマンスと適用性が制限されます。
この論文では、コンテキスト辞書検索を利用した新しい方法を紹介します。これにより、従来の埋め込みモデルがエンドツーエンドの方法で関係のきめ細かい意味論を学習できるようになります。
より具体的には、複数の潜在的な意味論を含む辞書を使用して各関係を表します。
特定のエンティティと辞書の中心的なセマンティクスの構成は、ルックアップを生成するためのコンテキストとして機能し、関係の詳細なセマンティクスを適応的に決定します。
提案された損失関数は、中央セマンティクスと詳細セマンティクスの両方を同時に最適化し、セマンティクスの一貫性を確保します。
さらに、辞書検索操作の有効性と精度を評価するための 2 つの指標を導入します。
この手法を使用していくつかの KGE モデルを拡張し、広く使用されているベンチマーク データセットのパフォーマンスが大幅に向上しました。
要約(オリジナル)
Knowledge graph completion (KGC) aims to solve the incompleteness of knowledge graphs (KGs) by predicting missing links from known triples, numbers of knowledge graph embedding (KGE) models have been proposed to perform KGC by learning embeddings. Nevertheless, most existing embedding models map each relation into a unique vector, overlooking the specific fine-grained semantics of them under different entities. Additionally, the few available fine-grained semantic models rely on clustering algorithms, resulting in limited performance and applicability due to the cumbersome two-stage training process. In this paper, we present a novel method utilizing contextual dictionary lookup, enabling conventional embedding models to learn fine-grained semantics of relations in an end-to-end manner. More specifically, we represent each relation using a dictionary that contains multiple latent semantics. The composition of a given entity and the dictionary’s central semantics serves as the context for generating a lookup, thus determining the fine-grained semantics of the relation adaptively. The proposed loss function optimizes both the central and fine-grained semantics simultaneously to ensure their semantic consistency. Besides, we introduce two metrics to assess the validity and accuracy of the dictionary lookup operation. We extend several KGE models with the method, resulting in substantial performance improvements on widely-used benchmark datasets.
arxiv情報
著者 | Jining Wang,Delai Qiu,YouMing Liu,Yining Wang,Chuan Chen,Zibin Zheng,Yuren Zhou |
発行日 | 2023-06-13 12:13:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google