要約
ベイジアン因果推論 (BCI) は、因果モデルの事後平均化によって、真の因果モデルに関する認識論的不確実性を下流の因果推論タスクに自然に組み込みます。
しかし、これは、無視できるほど多くの因果構造があるため、非常に難しい計算問題を引き起こします。
この研究では、構造学習の問題を、(i) 因果的順序と (ii) 因果的順序が与えられた各変数の親セットの推論に分解します。
変数ごとの親の数を制限することで、多項式時間で親セットを正確に周辺化することができ、因果的な順序のみが周辺化されるようになります。
この目的を達成するために、勾配ベースの方法で学習可能な新しい自己回帰モデルを提案します。
私たちの手法は、スケールフリーおよびエルドス・レニグラフ構造を使用したシミュレートされた非線形加法性ノイズベンチマークに関する最先端の構造学習と、実世界のデータに関する競合的な結果をもたらします。
さらに、私たちの方法が介入分布を正確に推測し、事後平均因果効果やその他の関心のある多くの因果量を推定できることを示します。
要約(オリジナル)
Bayesian causal inference (BCI) naturally incorporates epistemic uncertainty about the true causal model into down-stream causal reasoning tasks by posterior averaging over causal models. However, this poses a tremendously hard computational problem due to the intractable number of causal structures to marginalise over. In this work, we decompose the structure learning problem into inferring (i) a causal order and (ii) a parent set for each variable given a causal order. By limiting the number of parents per variable, we can exactly marginalise over the parent sets in polynomial time, which leaves only the causal order to be marginalised. To this end, we propose a novel autoregressive model over causal orders (ARCO) learnable with gradient-based methods. Our method yields state-of-the-art in structure learning on simulated non-linear additive noise benchmarks with scale-free and Erdos-Renyi graph structures, and competitive results on real-world data. Moreover, we illustrate that our method accurately infers interventional distributions, which allows us to estimate posterior average causal effects and many other causal quantities of interest.
arxiv情報
著者 | Christian Toth,Christian Knoll,Franz Pernkopf,Robert Peharz |
発行日 | 2024-07-16 14:27:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google