Adapting Neural Link Predictors for Complex Query Answering

要約

不完全なナレッジ グラフに対する複雑なクエリに答えることは、欠落したナレッジが存在する中でモデルが複雑な論理クエリに答える必要がある難しいタスクです。
最近、Arakelyan ら。
(2021年);
ミネルヴィニら。
(2022) は、ニューラル リンク予測子が複雑なクエリの回答にも使用できることを示しました。彼らの連続クエリ分解 (CQD) メソッドは、複雑なクエリをアトミックなサブクエリに分解することで機能し、ニューラル リンク予測子を使用してそれらに回答し、t ノルムを介してスコアを集計します。
それぞれの複雑なクエリに対する回答をランク付けします。
ただし、CQD は否定を処理せず、アトミック トレーニング クエリからのトレーニング信号のみを使用します。ニューラル リンク予測スコアは、複雑なクエリ応答中にファジー ロジック t ノルムを介して相互作用するように調整されていません。
この研究では、パラメーター効率の高いスコア適応モデルをトレーニングしてニューラル リンク予測スコアを再調整することで、この問題に対処することを提案します。この新しいコンポーネントは、複雑なクエリ応答プロセスを通じて逆伝播することによって、複雑なクエリに対してトレーニングされます。
私たちの手法 CQD$^{A}$ は、現在の最先端の手法よりも大幅に正確な結果を生成し、$34.4$ から $35.1$ に向上しました。 $\leq を使用しながら、すべてのデータセットとクエリ タイプで平均された平均逆数ランク値
使用可能なトレーニング クエリ タイプの 35\%$。
さらに、CQD$^{A}$ はデータ効率が高く、わずか $1\%$ のトレーニング データで競争力のある結果を達成し、ドメイン外の評価でも堅牢であることを示します。

要約(オリジナル)

Answering complex queries on incomplete knowledge graphs is a challenging task where a model needs to answer complex logical queries in the presence of missing knowledge. Recently, Arakelyan et al. (2021); Minervini et al. (2022) showed that neural link predictors could also be used for answering complex queries: their Continuous Query Decomposition (CQD) method works by decomposing complex queries into atomic sub-queries, answers them using neural link predictors and aggregates their scores via t-norms for ranking the answers to each complex query. However, CQD does not handle negations and only uses the training signal from atomic training queries: neural link prediction scores are not calibrated to interact together via fuzzy logic t-norms during complex query answering. In this work, we propose to address this problem by training a parameter-efficient score adaptation model to re-calibrate neural link prediction scores: this new component is trained on complex queries by back-propagating through the complex query-answering process. Our method, CQD$^{A}$, produces significantly more accurate results than current state-of-the-art methods, improving from $34.4$ to $35.1$ Mean Reciprocal Rank values averaged across all datasets and query types while using $\leq 35\%$ of the available training query types. We further show that CQD$^{A}$ is data-efficient, achieving competitive results with only $1\%$ of the training data, and robust in out-of-domain evaluations.

arxiv情報

著者 Erik Arakelyan,Pasquale Minervini,Isabelle Augenstein
発行日 2023-07-06 11:20:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.LO, cs.NE パーマリンク