Concept2Box: Joint Geometric Embeddings for Learning Two-View Knowledge Graphs

要約

ナレッジ グラフ エンベディング (KGE) は、多くの実世界のアプリケーション向けに大規模なリレーショナル データを埋め込むために広く研究されてきました。
既存の手法は、多くの KG に、高レベルのオントロジー ビューの概念と詳細なインスタンス ビュー エンティティという 2 つの根本的に異なるビューが含まれているという事実を長い間無視してきました。
通常、すべてのノードを 1 つの潜在空間にベクトルとして埋め込みます。
しかし、単一の幾何学的表現では 2 つのビュー間の構造的な違いを捉えることができず、概念の粒度に対する確率的意味論が欠けています。
私たちは、二重幾何学的表現を使用して KG の 2 つのビューを結合して埋め込む新しいアプローチである Concept2Box を提案します。
ボックス埋め込みを使用して概念をモデル化し、階層構造とそれらの間の重複や分離などの複雑な関係を学習します。
ボックスのボリュームは、概念の粒度として解釈できます。
概念とは異なり、エンティティをベクトルとしてモデル化します。
概念ボックスの埋め込みとエンティティ ベクトルの埋め込みの間のギャップを埋めるために、新しいベクトルからボックスへの距離メトリックを提案し、両方の埋め込みを共同で学習します。
パブリック DBpedia KG と新しく作成された産業用 KG の両方での実験により、Concept2Box の有効性が示されました。

要約(オリジナル)

Knowledge graph embeddings (KGE) have been extensively studied to embed large-scale relational data for many real-world applications. Existing methods have long ignored the fact many KGs contain two fundamentally different views: high-level ontology-view concepts and fine-grained instance-view entities. They usually embed all nodes as vectors in one latent space. However, a single geometric representation fails to capture the structural differences between two views and lacks probabilistic semantics towards concepts’ granularity. We propose Concept2Box, a novel approach that jointly embeds the two views of a KG using dual geometric representations. We model concepts with box embeddings, which learn the hierarchy structure and complex relations such as overlap and disjoint among them. Box volumes can be interpreted as concepts’ granularity. Different from concepts, we model entities as vectors. To bridge the gap between concept box embeddings and entity vector embeddings, we propose a novel vector-to-box distance metric and learn both embeddings jointly. Experiments on both the public DBpedia KG and a newly-created industrial KG showed the effectiveness of Concept2Box.

arxiv情報

著者 Zijie Huang,Daheng Wang,Binxuan Huang,Chenwei Zhang,Jingbo Shang,Yan Liang,Zhengyang Wang,Xian Li,Christos Faloutsos,Yizhou Sun,Wei Wang
発行日 2023-07-04 21:37:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CG, cs.CL, cs.SC パーマリンク