Embedding Ontologies via Incorporating Extensional and Intensional Knowledge

要約

オントロジーには、ドメイン内の豊富な知識が含まれており、2つのカテゴリ、すなわち拡張知識とインテンションの知識に分類できます。
拡張知識は、オントロジーの特定の概念に属する具体的なインスタンスに関する情報を提供し、概念間の固有の特性、特性、およびセマンティックな関連付けを詳細に説明します。
ただし、既存のオントロジーの埋め込みアプローチは、拡張的な知識とインテンションの知識の両方を同時に微妙な考慮事項に取り入れることができません。
この論文では、EIKE(拡張およびインテンションの知識埋め込み)という名前の新しいオントロジー埋め込みアプローチを提案します。これは、拡張空間とインテンション空間と呼ばれる2つのスペースでオントロジーを表現します。
EIKEは、オントロジーにインスタンス、概念、およびそれらの関係を埋め込むための統一されたフレームワークを提示し、拡張知識をモデル化するためのジオメトリベースの方法と、構造情報とテキスト情報の両方をキャプチャできる意図的な知識をモデル化するためにモデル化された言語モデルをモデル化します。
実験結果は、EIKEがトリプル分類とリンク予測の両方で3つのデータセットで最先端の方法を大幅に上回ることを示しており、EIKEがドメインのより包括的で代表的な視点を提供することを示しています。

要約(オリジナル)

Ontologies contain rich knowledge within domain, which can be divided into two categories, namely extensional knowledge and intensional knowledge. Extensional knowledge provides information about the concrete instances that belong to specific concepts in the ontology, while intensional knowledge details inherent properties, characteristics, and semantic associations among concepts. However, existing ontology embedding approaches fail to take both extensional knowledge and intensional knowledge into fine consideration simultaneously. In this paper, we propose a novel ontology embedding approach named EIKE (Extensional and Intensional Knowledge Embedding) by representing ontologies in two spaces, called extensional space and intensional space. EIKE presents a unified framework for embedding instances, concepts and their relations in an ontology, applying a geometry-based method to model extensional knowledge and a pretrained language model to model intensional knowledge, which can capture both structure information and textual information. Experimental results show that EIKE significantly outperforms state-of-the-art methods in three datasets for both triple classification and link prediction, indicating that EIKE provides a more comprehensive and representative perspective of the domain.

arxiv情報

著者 Keyu Wang,Guilin Qi,Jiaoyan Chen,Yi Huang,Tianxing Wu
発行日 2025-04-21 15:58:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク