DHGE: Dual-View Hyper-Relational Knowledge Graph Embedding for Link Prediction and Entity Typing

要約

タイトル:DHGE:リンク予測とエンティティタイプ付けのためのデュアルビューハイパーリレーショナルナレッジグラフ埋め込み

要約:

– ハイパーリレーショナルファクトは、主なトリプルといくつかの補助的な属性値記述から構成されるため、トリプルベースのファクトよりも包括的かつ具体的であると考えられています。
– しかし、現在の単一ビューのハイパー-リレーショナルKG埋め込み方式は、エンティティ間の所属関係を表す階層構造を弱めるため、適用範囲が限定されています。
– この制限を克服するために、私たちはエンティティ用のハイパーリレーショナルインスタンスビューと、エンティティから階層的に抽象化された概念用のハイパーリレーショナルオントロジービューを含むデュアルビューハイパーリレーショナルKG構造(DH-KG)を提案しています。
– この論文では、DH-KG上でリンク予測とエンティティタイピングのタスクを初めて定義し、Wikidataから抽出されたJW44K-6Kと医療データに基づくHTDMの2つのDH-KGデータセットを構築しています。
– さらに、私たちはGRANエンコーダ、HGNN、および共同学習に基づくDH-KG埋め込みモデルであるDHGEを提案しています。実験結果によると、DHGEはベースラインモデルよりもDH-KGで優れた性能を発揮します。
– 最後に、この技術が高血圧の治療にどのように使用されるかの例を示します。私たちのモデルと新しいデータセットは公開されています。

要約(オリジナル)

In the field of representation learning on knowledge graphs (KGs), a hyper-relational fact consists of a main triple and several auxiliary attribute-value descriptions, which is considered more comprehensive and specific than a triple-based fact. However, currently available hyper-relational KG embedding methods in a single view are limited in application because they weaken the hierarchical structure that represents the affiliation between entities. To overcome this limitation, we propose a dual-view hyper-relational KG structure (DH-KG) that contains a hyper-relational instance view for entities and a hyper-relational ontology view for concepts that are abstracted hierarchically from the entities. This paper defines link prediction and entity typing tasks on DH-KG for the first time and constructs two DH-KG datasets, JW44K-6K, extracted from Wikidata, and HTDM based on medical data. Furthermore, we propose DHGE, a DH-KG embedding model based on GRAN encoders, HGNNs, and joint learning. DHGE outperforms baseline models on DH-KG, according to experimental results. Finally, we provide an example of how this technology can be used to treat hypertension. Our model and new datasets are publicly available.

arxiv情報

著者 Haoran Luo,Haihong E,Ling Tan,Gengxian Zhou,Tianyu Yao,Kaiyang Wan
発行日 2023-03-31 21:56:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク