Reinterpreting causal discovery as the task of predicting unobserved joint statistics

要約

X,Y,Z$を確率変数の集合とすると、二つの異なるデータソースはそれぞれ$P_{X,Y}$と$P_{Y,Z}$からのサンプルを含むことができる。我々は、因果関係の発見が、「観測されない共同分布」$P_{X,Y,Z}$または$P_{X,Z}$の特性を推論するのに役立つと主張する。この特性は、条件付き独立性(「統合的因果推論」のように)である場合もあれば、依存性に関する定量的な記述である場合もある。 より一般的には、入力が変数の部分集合であり、ラベルがその部分集合の統計的特性である学習シナリオを定義する。共同観測された変数の集合がトレーニングポイントであり、観測されていない集合がテストポイントになりうる。この学習課題を解決するために、中間段階として、観測値から因果モデルを推論し、それが未観測の集合の特性を含むようにする。したがって、因果モデルのクラスのVC次元を定義し、予測値の汎化境界を導出することができる。 ここで、因果関係の発見は、通常よりも控えめで、経験的なテストにアクセスしやすくなる:`true’である因果仮説を見つけようとするのではなく、因果仮説は、観察されていない共同分布の統計的特性を正しく予測するたびに{it useful}である。このように、弱い影響を省いた疎な因果グラフは、より小さな部分集合の限界分布から完全な共同分布を再構成することができるため、(精度は低いものの)密なものよりも有用である場合がある。 このような因果関係の発見の「実用的」な応用の中では、いくつかの一般的な発見的アプローチが、振り返れば正当化される。例えば、DAGが部分的な相関を予測するためだけに使われるのであれば、条件付き独立性ではなく、部分的な相関からDAGを推論することが許されるのである。

要約(オリジナル)

If $X,Y,Z$ denote sets of random variables, two different data sources may contain samples from $P_{X,Y}$ and $P_{Y,Z}$, respectively. We argue that causal discovery can help inferring properties of the `unobserved joint distributions’ $P_{X,Y,Z}$ or $P_{X,Z}$. The properties may be conditional independences (as in `integrative causal inference’) or also quantitative statements about dependences. More generally, we define a learning scenario where the input is a subset of variables and the label is some statistical property of that subset. Sets of jointly observed variables define the training points, while unobserved sets are possible test points. To solve this learning task, we infer, as an intermediate step, a causal model from the observations that then entails properties of unobserved sets. Accordingly, we can define the VC dimension of a class of causal models and derive generalization bounds for the predictions. Here, causal discovery becomes more modest and better accessible to empirical tests than usual: rather than trying to find a causal hypothesis that is `true’ a causal hypothesis is {\it useful} whenever it correctly predicts statistical properties of unobserved joint distributions. This way, a sparse causal graph that omits weak influences may be more useful than a dense one (despite being less accurate) because it is able to reconstruct the full joint distribution from marginal distributions of smaller subsets. Within such a `pragmatic’ application of causal discovery, some popular heuristic approaches become justified in retrospect. It is, for instance, allowed to infer DAGs from partial correlations instead of conditional independences if the DAGs are only used to predict partial correlations.

arxiv情報

著者 Dominik Janzing,Philipp M. Faller,Leena Chennuru Vankadara
発行日 2023-05-11 15:30:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, stat.ML パーマリンク