要約
Complex Query Answering (CQA) は、Knowledge Graph (KG) の課題タスクです。
KG は不完全であるため、クエリとエンティティを同じ埋め込み空間にエンコードし、論理演算子をニューラル集合演算子として扱って答えを得るクエリ埋め込み (QE) 方法が提案されています。
ただし、これらの方法では、単純 (ワンホップ) クエリと複雑な (マルチホップおよび論理) クエリの両方で KG エンベディングとニューラル セット オペレーターを同時にトレーニングするため、単純なクエリでパフォーマンスの低下とトレーニング効率の低下が発生します。
このペーパーでは、単純なクエリと複雑なクエリのトレーニングを分離する新しいアプローチである Query to Triple (Q2T) を提案します。
Q2T は、トレーニングを 2 つの段階に分割します。 (1) 単純なクエリでニューラル リンク プレディクターを事前トレーニングし、先頭エンティティとリレーションに基づいて末尾エンティティを予測します。
(2) 複雑なクエリに関してクエリ エンコーダをトレーニングして、さまざまな複雑なクエリを、事前トレーニングされたニューラル リンク プレディクタによって効率的に解決できる統一されたトリプル形式にエンコードします。
私たちが提案する Q2T は、トレーニングが効率的であるだけでなく、モジュール式であるため、よく研究されているさまざまなニューラル リンク予測子に簡単に適応できます。
広範な実験により、ニューラル セット演算子の明示的なモデリングがなくても、Q2T が 3 つの公開ベンチマークにわたって多様で複雑なクエリに対して最先端のパフォーマンスを達成できることが実証されました。
要約(オリジナル)
Complex Query Answering (CQA) is a challenge task of Knowledge Graph (KG). Due to the incompleteness of KGs, query embedding (QE) methods have been proposed to encode queries and entities into the same embedding space, and treat logical operators as neural set operators to obtain answers. However, these methods train KG embeddings and neural set operators concurrently on both simple (one-hop) and complex (multi-hop and logical) queries, which causes performance degradation on simple queries and low training efficiency. In this paper, we propose Query to Triple (Q2T), a novel approach that decouples the training for simple and complex queries. Q2T divides the training into two stages: (1) Pre-training a neural link predictor on simple queries to predict tail entities based on the head entity and relation. (2) Training a query encoder on complex queries to encode diverse complex queries into a unified triple form that can be efficiently solved by the pretrained neural link predictor. Our proposed Q2T is not only efficient to train, but also modular, thus easily adaptable to various neural link predictors that have been studied well. Extensive experiments demonstrate that, even without explicit modeling for neural set operators, Q2T still achieves state-of-the-art performance on diverse complex queries over three public benchmarks.
arxiv情報
著者 | Yao Xu,Shizhu He,Cunguang Wang,Li Cai,Kang Liu,Jun Zhao |
発行日 | 2023-10-17 13:13:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google