Causal Lifting and Link Prediction

要約

リンク予測の既存の因果モデルは、グラフ内のリンクの因果的進化を支配する固有のノード要因 (ノードの誕生時に定義される生来の特性) の基礎となるセットを前提としています。
ただし、一部の因果タスクでは、リンクの形成はパスに依存します。つまり、リンク介入の結果は既存のリンクに依存します。
残念ながら、これらの既存の因果的手法は、リンク間のカスケード機能依存性 (パス依存性から生じる) が識別できないか、非現実的な数の制御変数を必要とするため、パス依存性のリンク形成用に設計されていません。
これを克服するために、リンク予測におけるパス依存関係を処理できる最初の因果モデルを開発しました。
この研究では、因果リフティングの概念を導入します。これは、グラフ上で、限られた介入データを使用して因果関係予測クエリの特定を可能にする、独立した関心のある因果モデルの不変性です。
さらに、グラフニューラルネットワークのノード埋め込みや行列因数分解などの既存のノード埋め込みとは対照的に、構造ペアワイズ埋め込みがどのようにバイアスが低く、タスクの因果構造を正確に表すかを示します。
最後に、因果関係予測タスクの 3 つのシナリオ (知識ベースの完成、共分散行列の推定、消費者製品の推奨) に関する理論的発見を検証します。

要約(オリジナル)

Existing causal models for link prediction assume an underlying set of inherent node factors — an innate characteristic defined at the node’s birth — that governs the causal evolution of links in the graph. In some causal tasks, however, link formation is path-dependent: The outcome of link interventions depends on existing links. Unfortunately, these existing causal methods are not designed for path-dependent link formation, as the cascading functional dependencies between links (arising from path dependence) are either unidentifiable or require an impractical number of control variables. To overcome this, we develop the first causal model capable of dealing with path dependencies in link prediction. In this work we introduce the concept of causal lifting, an invariance in causal models of independent interest that, on graphs, allows the identification of causal link prediction queries using limited interventional data. Further, we show how structural pairwise embeddings exhibit lower bias and correctly represent the task’s causal structure, as opposed to existing node embeddings, e.g., graph neural network node embeddings and matrix factorization. Finally, we validate our theoretical findings on three scenarios for causal link prediction tasks: knowledge base completion, covariance matrix estimation and consumer-product recommendations.

arxiv情報

著者 Leonardo Cotta,Beatrice Bevilacqua,Nesreen Ahmed,Bruno Ribeiro
発行日 2023-07-27 16:11:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ME, stat.ML パーマリンク