要約
エンティティアライメント(EA)は、異なる知識グラフ(KG)内の等価なエンティティをマッチングさせることを目的としており、知識融合や統合に不可欠である。近年、埋め込みベースのEAが注目を集めており、多くのアプローチが提案されている。初期のアプローチでは、主に関係三重項によって定義されるKGの構造的特徴からエンティティの埋め込みを学習することに焦点が当てられていた。その後、エンティティの名前と属性を補助情報として組み込み、EAのための埋め込みを強化する手法が登場した。しかし、これらの手法は、構造情報と属性情報をエンコードするために異なる手法を用いることが多く、相互作用や相互強化が制限されていた。本研究では、言語モデルを活用してエンティティの様々な特徴を一様に符号化し、KG間の最近接エンティティ検索を容易にする、EAのための高密度エンティティ検索フレームワークを提案する。アライメント候補はまずエンティティ検索によって生成され、その後、最終的なアライメントを決定するために再ランク付けされる。我々は、クロスリンガルおよびモノリンガルのEAデータセットで包括的な実験を行い、我々のアプローチが既存のEA手法と比較して最先端の性能を達成することを実証する。
要約(オリジナル)
Entity Alignment (EA) aims to match equivalent entities in different Knowledge Graphs (KGs), which is essential for knowledge fusion and integration. Recently, embedding-based EA has attracted significant attention and many approaches have been proposed. Early approaches primarily focus on learning entity embeddings from the structural features of KGs, defined by relation triples. Later methods incorporated entities’ names and attributes as auxiliary information to enhance embeddings for EA. However, these approaches often used different techniques to encode structural and attribute information, limiting their interaction and mutual enhancement. In this work, we propose a dense entity retrieval framework for EA, leveraging language models to uniformly encode various features of entities and facilitate nearest entity search across KGs. Alignment candidates are first generated through entity retrieval, which are subsequently reranked to determine the final alignments. We conduct comprehensive experiments on both cross-lingual and monolingual EA datasets, demonstrating that our approach achieves state-of-the-art performance compared to existing EA methods.
arxiv情報
著者 | Zhichun Wang,Xuan Chen |
発行日 | 2024-08-02 10:12:42+00:00 |
arxivサイト | arxiv_id(pdf) |