What is causal about causal models and representations?

要約

因果ベイズネットワークは、介入分布に関する予測を行うので、「因果」モデルである。このような因果モデルの予測を現実世界の結果に結びつけるために、我々は世界におけるどの行動がモデルにおけるどの介入に対応するかを決定しなければならない。例えば、ある行動を治療変数への介入と解釈するためには、その行動はおそらく、a) 介入に対応する方法で治療の分布を変化させ、b) 結果が治療にどのように依存するかなどの他の側面を変化させないようにしなければならない。我々は、介入としての行動の異なる解釈に対するこのような要件を正確にするための形式的枠組みを導入する。我々は、介入としての行動の一見自然な解釈が循環的であることを証明する:この解釈の下では、観測分布を正しくモデル化する因果ベイズ・ネットワークはすべて、介入的にも妥当であり、どのような行動も、そのようなモデルを反証しうるような経験的データをもたらさない。我々は不可能性の結果を証明する:非円形的であり、同時に自然な望みを満たす解釈は存在しない。その代わりに、いくつかのデサイデラータに違反する可能性のある非循環的解釈を検討し、その結果、因果モデルの反証がどのように可能になるかを示す。因果ベイズネットワークが単なる数学的対象ではなく、世界の「因果的」モデルであり得ることを厳密に検証することにより、我々の形式的枠組みは、因果表現学習、因果発見、因果抽象化の概念的基礎付けに貢献すると同時に、既存のアプローチのいくつかの限界を浮き彫りにする。

要約(オリジナル)

Causal Bayesian networks are ‘causal’ models since they make predictions about interventional distributions. To connect such causal model predictions to real-world outcomes, we must determine which actions in the world correspond to which interventions in the model. For example, to interpret an action as an intervention on a treatment variable, the action will presumably have to a) change the distribution of treatment in a way that corresponds to the intervention, and b) not change other aspects, such as how the outcome depends on the treatment; while the marginal distributions of some variables may change as an effect. We introduce a formal framework to make such requirements for different interpretations of actions as interventions precise. We prove that the seemingly natural interpretation of actions as interventions is circular: Under this interpretation, every causal Bayesian network that correctly models the observational distribution is trivially also interventionally valid, and no action yields empirical data that could possibly falsify such a model. We prove an impossibility result: No interpretation exists that is non-circular and simultaneously satisfies a set of natural desiderata. Instead, we examine non-circular interpretations that may violate some desiderata and show how this may in turn enable the falsification of causal models. By rigorously examining how a causal Bayesian network could be a ‘causal’ model of the world instead of merely a mathematical object, our formal framework contributes to the conceptual foundations of causal representation learning, causal discovery, and causal abstraction, while also highlighting some limitations of existing approaches.

arxiv情報

著者 Frederik Hytting Jørgensen,Luigi Gresele,Sebastian Weichwald
発行日 2025-02-03 17:24:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, math.ST, stat.ML, stat.TH パーマリンク