Embedding Ontologies via Incorporating Extensional and Intensional Knowledge

要約

オントロジーにはドメイン内の豊富な知識が含まれており、これは拡張知識と内包知識の 2 つのカテゴリに分類できます。
外延的知識は、オントロジー内の特定の概念に属する具体的なインスタンスに関する情報を提供するのに対し、内在的知識は、概念間の固有のプロパティ、特性、および意味論的な関連を詳しく説明します。
しかし、既存のオントロジー埋め込みアプローチでは、外延的知識と内在的知識の両方を同時に細かく考慮することができません。
この論文では、拡張空間と内包空間と呼ばれる 2 つの空間でオントロジーを表現することにより、EIKE (Extensional and Intensional Knowledge Embedding) と呼ばれる新しいオントロジー埋め込みアプローチを提案します。
EIKE は、インスタンス、概念、およびそれらの関係をオントロジーに埋め込むための統一フレームワークを提供し、ジオメトリベースの手法を適用して外延的知識をモデル化し、事前トレーニングされた言語モデルを適用して内包的知識をモデル化し、構造情報とテキスト情報の両方をキャプチャできます。
実験結果は、EIKE が 3 つのデータセットにおいて、三重分類とリンク予測の両方において最先端の手法を大幅に上回るパフォーマンスを示し、EIKE がドメインのより包括的で代表的な視点を提供することを示しています。

要約(オリジナル)

Ontologies contain rich knowledge within domain, which can be divided into two categories, namely extensional knowledge and intensional knowledge. Extensional knowledge provides information about the concrete instances that belong to specific concepts in the ontology, while intensional knowledge details inherent properties, characteristics, and semantic associations among concepts. However, existing ontology embedding approaches fail to take both extensional knowledge and intensional knowledge into fine consideration simultaneously. In this paper, we propose a novel ontology embedding approach named EIKE (Extensional and Intensional Knowledge Embedding) by representing ontologies in two spaces, called extensional space and intensional space. EIKE presents a unified framework for embedding instances, concepts and their relations in an ontology, applying a geometry-based method to model extensional knowledge and a pretrained language model to model intensional knowledge, which can capture both structure information and textual information. Experimental results show that EIKE significantly outperforms state-of-the-art methods in three datasets for both triple classification and link prediction, indicating that EIKE provides a more comprehensive and representative perspective of the domain.

arxiv情報

著者 Keyu Wang,Guilin Qi,Jiaoyan Chen,Tianxing Wu
発行日 2024-02-14 14:02:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク