AsyncET: Asynchronous Learning for Knowledge Graph Entity Typing with Auxiliary Relations

要約

ナレッジ グラフ エンティティ タイピング (KGET) は、ナレッジ グラフ (KG) で欠落しているエンティティ タイプを予測するタスクです。
以前は、KG embedding (KGE) メソッドは、エンティティとその型の間の関係をモデル化する補助関係「hasType」を導入することによって、KGET タスクを解決しようとしていました。
ただし、単一の補助関係では、さまざまなエンティティ タイプのパターンに対する表現力が制限されます。
この研究では複数の補助関係を導入することにより、KGE 法の表現力を向上させます。
同様のエンティティ タイプがグループ化されることで、補助関係の数が減り、異なる粒度でエンティティ タイプのパターンをモデル化する機能が向上します。
複数の補助関係が存在するため、エンティティ タイピングに非同期学習スキームを採用した AsyncET という方法を提案します。これは、エンティティと型の埋め込みを交互に更新して、学習されたエンティティの埋め込みを最新の状態に保ち、エンティティ タイプの予測に有益な情報を提供します。
実験は、提案された複数の補助関係と非同期埋め込み学習によって、KGET タスクに対する KGE メソッドのパフォーマンスが大幅に向上できることを示すために、一般的に使用される 2 つの KGET データセットに対して行われます。
さらに、私たちの方法は、モデルのサイズと時間の複雑さの点で、最先端の方法よりも大きな利点があります。

要約(オリジナル)

Knowledge graph entity typing (KGET) is a task to predict the missing entity types in knowledge graphs (KG). Previously, KG embedding (KGE) methods tried to solve the KGET task by introducing an auxiliary relation, ‘hasType’, to model the relationship between entities and their types. However, a single auxiliary relation has limited expressiveness for diverse entity-type patterns. We improve the expressiveness of KGE methods by introducing multiple auxiliary relations in this work. Similar entity types are grouped to reduce the number of auxiliary relations and improve their capability to model entity-type patterns with different granularities. With the presence of multiple auxiliary relations, we propose a method adopting an Asynchronous learning scheme for Entity Typing, named AsyncET, which updates the entity and type embeddings alternatively to keep the learned entity embedding up-to-date and informative for entity type prediction. Experiments are conducted on two commonly used KGET datasets to show that the performance of KGE methods on the KGET task can be substantially improved by the proposed multiple auxiliary relations and asynchronous embedding learning. Furthermore, our method has a significant advantage over state-of-the-art methods in model sizes and time complexity.

arxiv情報

著者 Yun-Cheng Wang,Xiou Ge,Bin Wang,C. -C. Jay Kuo
発行日 2023-08-30 14:24:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク