Joint embedding in Hierarchical distance and semantic representation learning for link prediction

要約

リンク予測タスクは、ナレッジ グラフで不足しているエンティティまたは関係を予測することを目的としており、ダウンストリーム アプリケーションに不可欠です。
既存のよく知られたモデルは、距離空間または意味空間でナレッジ グラフ トリプレットを表現することに主に焦点を当てることによって、このタスクを処理します。
ただし、頭と尾のエンティティの情報を完全にキャプチャすることはできず、階層レベルの情報を十分に活用することさえできません。
したがって、この論文では、リンク予測タスク、つまり各トリプレット (\textit{h}、\textit{r}、\textit{t}) を距離測定にモデル化する HIE の新しいナレッジ グラフ埋め込みモデルを提案します。
空間と意味測定空間を同時に。
さらに、HIE は階層認識空間に導入され、エンティティと関係の豊富な階層情報を活用して、より優れた表現学習を実現します。
具体的には、移動ベースまたは回転ベースのアプローチの代わりに、距離空間のヘッド エンティティに距離変換操作を適用してテール エンティティを取得します。
4 つの実世界のデータセットでの HIE の実験結果は、HIE がリンク予測タスクでいくつかの既存の最先端のナレッジ グラフ埋め込み方法よりも優れており、複雑な関係を正確に処理することを示しています。

要約(オリジナル)

The link prediction task aims to predict missing entities or relations in the knowledge graph and is essential for the downstream application. Existing well-known models deal with this task by mainly focusing on representing knowledge graph triplets in the distance space or semantic space. However, they can not fully capture the information of head and tail entities, nor even make good use of hierarchical level information. Thus, in this paper, we propose a novel knowledge graph embedding model for the link prediction task, namely, HIE, which models each triplet (\textit{h}, \textit{r}, \textit{t}) into distance measurement space and semantic measurement space, simultaneously. Moreover, HIE is introduced into hierarchical-aware space to leverage rich hierarchical information of entities and relations for better representation learning. Specifically, we apply distance transformation operation on the head entity in distance space to obtain the tail entity instead of translation-based or rotation-based approaches. Experimental results of HIE on four real-world datasets show that HIE outperforms several existing state-of-the-art knowledge graph embedding methods on the link prediction task and deals with complex relations accurately.

arxiv情報

著者 Jin Liu,Jianye Chen,Chongfeng Fan,Fengyu Zhou
発行日 2023-03-28 00:42:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク