要約
因果ベイジアンネットワークは、介入分布について予測するため、「因果関係」モデルです。
このような因果モデルの予測を実際の結果に結び付けるには、世界のどのアクションがモデルのどの介入に対応するかを決定する必要があります。
たとえば、アクションを治療変数への介入として解釈するために、アクションはおそらくa)介入に対応する方法で治療の分布を変更する必要があり、b)結果の結果などの他の側面を変更しないでください。
治療に依存します。
一方、いくつかの変数の限界分布は効果として変化する場合があります。
介入を正確にするように、アクションのさまざまな解釈のためにこのような要件を作成するための正式なフレームワークを紹介します。
介入としてのアクションの一見自然な解釈が循環的であることを証明します。この解釈の下で、観測分布を正しくモデル化するすべての因果ベイジアンネットワークは、介入的にも有効であり、アクションがそのようなモデルを偽造する可能性のある経験的データを生成するものはありません。
私たちは不可能な結果を証明します:非円形であり、同時に一連の自然なデシデラタを満たす解釈は存在しません。
代わりに、いくつかの設計に違反する可能性のある非円形解釈を調べ、これが因果モデルの改ざんを可能にする方法を示します。
因果的ベイジアンネットワークが単なる数学的オブジェクトではなく、世界の「因果関係」モデルになる方法を厳密に調べることにより、私たちの正式なフレームワークは、因果表現学習、因果発見、因果抽象化の概念的基盤に貢献し、いくつかの制限を強調していると同時に
既存のアプローチの。
要約(オリジナル)
Causal Bayesian networks are ‘causal’ models since they make predictions about interventional distributions. To connect such causal model predictions to real-world outcomes, we must determine which actions in the world correspond to which interventions in the model. For example, to interpret an action as an intervention on a treatment variable, the action will presumably have to a) change the distribution of treatment in a way that corresponds to the intervention, and b) not change other aspects, such as how the outcome depends on the treatment; while the marginal distributions of some variables may change as an effect. We introduce a formal framework to make such requirements for different interpretations of actions as interventions precise. We prove that the seemingly natural interpretation of actions as interventions is circular: Under this interpretation, every causal Bayesian network that correctly models the observational distribution is trivially also interventionally valid, and no action yields empirical data that could possibly falsify such a model. We prove an impossibility result: No interpretation exists that is non-circular and simultaneously satisfies a set of natural desiderata. Instead, we examine non-circular interpretations that may violate some desiderata and show how this may in turn enable the falsification of causal models. By rigorously examining how a causal Bayesian network could be a ‘causal’ model of the world instead of merely a mathematical object, our formal framework contributes to the conceptual foundations of causal representation learning, causal discovery, and causal abstraction, while also highlighting some limitations of existing approaches.
arxiv情報
著者 | Frederik Hytting Jørgensen,Luigi Gresele,Sebastian Weichwald |
発行日 | 2025-01-31 17:35:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google