ExpressivE: A Spatio-Functional Embedding For Knowledge Graph Completion

要約

ナレッジグラフは本質的に不完全です。
したがって、ナレッジ グラフ補完 (KGC)、つまり、ナレッジ グラフ (KG) で表される情報から欠落したトリプルを予測することに向けて、かなりの研究が行われてきました。
KG 埋め込みモデル (KGE) は KGC に有望な結果をもたらしましたが、現在の KGE では (1) 重要な推論パターン (例: 構成) を完全にキャプチャすること、(2) 顕著なパターンを一緒にキャプチャすること (例: 階層と構成)、
(3) キャプチャされたパターンの直感的な解釈を提供します。
この作業では、これらすべての課題を同時に解決する完全に表現力豊かな空間機能的 KGE である ExpressivE を提案します。
ExpressivE は、仮想三重空間 $\mathbb{R}^{2d}$ にエンティティのペアを点として埋め込み、関係を超平行四辺形として埋め込みます。
このモデル設計により、ExpressivE は豊富な推論パターンのセットを共同でキャプチャできるだけでなく、ハイパーパラレログラムの空間関係を介してサポートされている推論パターンを表示し、ExpressivE 埋め込みとそれらのキャプチャされたパターンの直感的で一貫した幾何学的解釈を提供できます。
標準の KGC ベンチマークでの実験結果は、ExpressivE が最先端の KGE と競合し、WN18RR でそれらを大幅に上回ることさえ明らかにしています。

要約(オリジナル)

Knowledge graphs are inherently incomplete. Therefore substantial research has been directed toward knowledge graph completion (KGC), i.e., predicting missing triples from the information represented in the knowledge graph (KG). KG embedding models (KGEs) have yielded promising results for KGC, yet any current KGE is incapable of: (1) fully capturing vital inference patterns (e.g., composition), (2) capturing prominent patterns jointly (e.g., hierarchy and composition), and (3) providing an intuitive interpretation of captured patterns. In this work, we propose ExpressivE, a fully expressive spatio-functional KGE that solves all these challenges simultaneously. ExpressivE embeds pairs of entities as points and relations as hyper-parallelograms in the virtual triple space $\mathbb{R}^{2d}$. This model design allows ExpressivE not only to capture a rich set of inference patterns jointly but additionally to display any supported inference pattern through the spatial relation of hyper-parallelograms, offering an intuitive and consistent geometric interpretation of ExpressivE embeddings and their captured patterns. Experimental results on standard KGC benchmarks reveal that ExpressivE is competitive with state-of-the-art KGEs and even significantly outperforms them on WN18RR.

arxiv情報

著者 Aleksandar Pavlović,Emanuel Sallinger
発行日 2023-03-22 11:20:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク