要約
ナレッジ グラフ (KG) の複雑な論理クエリ応答 (CLQA) は、単純な KG 補完を超えて、複数の射影と論理演算で構成される構成クエリに応答することを目的としています。
特定のエンティティまたはリレーション語彙にバインドされたパラメータを学習する既存の CLQA メソッドは、トレーニング対象のグラフにのみ適用でき、新しいグラフにデプロイする前にかなりのトレーニング時間が必要です。
ここでは、あらゆる KG に対する論理クエリにゼロショットで回答できる帰納的推論モデルである UltraQuery を紹介します。
UltraQuery の中心となるアイデアは、投影と論理演算の両方を、あらゆる KG 内の新しいエンティティと関係に一般化する語彙に依存しない関数として導き出すことです。
事前トレーニングされた帰納的 KG 推論モデルから初期化された射影操作を使用すると、UltraQuery は、単一のデータセットでのみ微調整されている場合でも、任意の KG の CLQA を解決できます。
23 個のデータセットを実験した結果、ゼロショット推論モードの UltraQuery は、利用可能な最良のベースラインと同等以上のクエリ応答パフォーマンスを示し、そのうち 14 個で新しい最先端技術を確立しました。
要約(オリジナル)
Complex logical query answering (CLQA) in knowledge graphs (KGs) goes beyond simple KG completion and aims at answering compositional queries comprised of multiple projections and logical operations. Existing CLQA methods that learn parameters bound to certain entity or relation vocabularies can only be applied to the graph they are trained on which requires substantial training time before being deployed on a new graph. Here we present UltraQuery, an inductive reasoning model that can zero-shot answer logical queries on any KG. The core idea of UltraQuery is to derive both projections and logical operations as vocabulary-independent functions which generalize to new entities and relations in any KG. With the projection operation initialized from a pre-trained inductive KG reasoning model, UltraQuery can solve CLQA on any KG even if it is only finetuned on a single dataset. Experimenting on 23 datasets, UltraQuery in the zero-shot inference mode shows competitive or better query answering performance than best available baselines and sets a new state of the art on 14 of them.
arxiv情報
著者 | Mikhail Galkin,Jincheng Zhou,Bruno Ribeiro,Jian Tang,Zhaocheng Zhu |
発行日 | 2024-04-10 17:56:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google