Two Heads Are Better Than One: Integrating Knowledge from Knowledge Graphs and Large Language Models for Entity Alignment

要約

より包括的なナレッジ グラフ (KG) を作成するための前提条件であるエンティティの調整には、異なる KG 間で同等のエンティティを正確に特定することが含まれます。
エンティティの位置合わせのための現代の方法では、主に知識埋め込みモデルを利用して、構造的、関係的、属性などのさまざまな類似性をカプセル化するエンティティ埋め込みを取得しています。
これらの埋め込みは、アテンションベースの情報融合メカニズムを通じて統合されます。
このような進歩にもかかわらず、固有の異質性により、多面的な情報を効果的に活用することは依然として困難です。
さらに、大規模言語モデル (LLM) は、エンティティのセマンティクスを暗黙的に取得することで、さまざまなダウンストリーム タスクにわたって優れたパフォーマンスを示していますが、この暗黙の知識はエンティティのアライメントにはまだ活用されていません。
この研究では、エンティティのアライメントを強化するために、KG からの構造的知識と LLM からの意味論的な知識を統合する、大規模言語モデル強化エンティティ アライメント フレームワーク (LLMEA) を提案します。
具体的には、LLMEA は、KG にわたるエンティティ間の埋め込み類似性と仮想同等エンティティまでの編集距離の両方を考慮して、特定のエンティティの候補アラインメントを特定します。
次に、LLM を繰り返し実行し、LLM の推論機能を活用するために複数の多肢選択の質問を提示します。
同等のエンティティの最終予測は、LLM の出力から導出されます。
3 つの公開データセットに対して行われた実験により、LLMEA が主要なベースライン モデルを上回ることが明らかになりました。
追加のアブレーション研究により、私たちが提案したフレームワークの有効性が強調されています。

要約(オリジナル)

Entity alignment, which is a prerequisite for creating a more comprehensive Knowledge Graph (KG), involves pinpointing equivalent entities across disparate KGs. Contemporary methods for entity alignment have predominantly utilized knowledge embedding models to procure entity embeddings that encapsulate various similarities-structural, relational, and attributive. These embeddings are then integrated through attention-based information fusion mechanisms. Despite this progress, effectively harnessing multifaceted information remains challenging due to inherent heterogeneity. Moreover, while Large Language Models (LLMs) have exhibited exceptional performance across diverse downstream tasks by implicitly capturing entity semantics, this implicit knowledge has yet to be exploited for entity alignment. In this study, we propose a Large Language Model-enhanced Entity Alignment framework (LLMEA), integrating structural knowledge from KGs with semantic knowledge from LLMs to enhance entity alignment. Specifically, LLMEA identifies candidate alignments for a given entity by considering both embedding similarities between entities across KGs and edit distances to a virtual equivalent entity. It then engages an LLM iteratively, posing multiple multi-choice questions to draw upon the LLM’s inference capability. The final prediction of the equivalent entity is derived from the LLM’s output. Experiments conducted on three public datasets reveal that LLMEA surpasses leading baseline models. Additional ablation studies underscore the efficacy of our proposed framework.

arxiv情報

著者 Linyao Yang,Hongyang Chen,Xiao Wang,Jing Yang,Fei-Yue Wang,Han Liu
発行日 2024-01-30 12:41:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク