DHGE: Dual-view Hyper-Relational Knowledge Graph Embedding for Link Prediction and Entity Typing

要約

ナレッジ グラフ (KG) の表現学習の分野では、ハイパーリレーショナル ファクトは、主要なトリプルといくつかの補助的な属性値記述で構成され、トリプル ベースのファクトよりも包括的かつ具体的であると見なされます。
ただし、現在利用可能な単一のビューでのハイパーリレーショナル KG 埋め込み方法は、エンティティ間の関係を表す階層構造を弱めるため、アプリケーションが制限されます。
この制限を克服するために、エンティティのハイパーリレーショナル インスタンス ビューと、エンティティから階層的に抽象化された概念のハイパーリレーショナル オントロジー ビューを含むデュアル ビュー ハイパーリレーショナル KG 構造 (DH-KG) を提案します。
この論文では、DH-KG で初めてリンク予測とエンティティ タイピング タスクを定義し、ウィキデータから抽出した 2 つの DH-KG データセット、JW44K-6K、および医療データに基づく HTDM を構築します。
さらに、GRAN エンコーダー、HGNN、および共同学習に基づく DH-KG 埋め込みモデルである DHGE を提案します。
実験結果によると、DHGE は DH-KG のベースライン モデルよりも優れています。
最後に、この技術を高血圧症の治療に使用する方法の例を示します。
私たちのモデルと新しいデータセットは公開されています。

要約(オリジナル)

In the field of representation learning on knowledge graphs (KGs), a hyper-relational fact consists of a main triple and several auxiliary attribute-value descriptions, which is considered more comprehensive and specific than a triple-based fact. However, currently available hyper-relational KG embedding methods in a single view are limited in application because they weaken the hierarchical structure that represents the affiliation between entities. To overcome this limitation, we propose a dual-view hyper-relational KG structure (DH-KG) that contains a hyper-relational instance view for entities and a hyper-relational ontology view for concepts that are abstracted hierarchically from the entities. This paper defines link prediction and entity typing tasks on DH-KG for the first time and constructs two DH-KG datasets, JW44K-6K, extracted from Wikidata, and HTDM based on medical data. Furthermore, we propose DHGE, a DH-KG embedding model based on GRAN encoders, HGNNs, and joint learning. DHGE outperforms baseline models on DH-KG, according to experimental results. Finally, we provide an example of how this technology can be used to treat hypertension. Our model and new datasets are publicly available.

arxiv情報

著者 Haoran Luo,Haihong E,Ling Tan,Gengxian Zhou,Tianyu Yao,Kaiyang Wan
発行日 2023-02-24 15:57:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク