要約
神経因果モデル(NCMS)の最近の進捗状況は、特定の因果グラフにエンコードされた制約を尊重する神経生成モデルのトレーニングを通じて、因果効果の識別と部分的識別を自動的に実行する方法を示しています[Xia et al。
2022年、Balazadeh et al。
2022]。
ただし、これらの方法の正式な一貫性は、離散変数の場合、または線形因果モデルのみでのみ証明されています。
この作業では、連続変数とカテゴリ変数の両方を備えた一般的な設定でのNCMSを介した部分的識別の一貫性を証明します。
さらに、我々の結果は、深さと接続性の観点から、基礎となるニューラルネットワークアーキテクチャの設計が、トレーニングフェーズでLipschitzの正規化を適用することの重要性を強調しています。
特に、Lipschitzの正規化がなければ、この方法が漸近的に一貫していない可能性があることを示す反論を提供します。
私たちの結果は、神経生成モデルを介した構造因果モデル(SCM)の近似性に関する新しい結果と、結果として生成されるアーキテクチャのサンプルの複雑さの分析と、それが部分的な識別境界を定義する制約された最適化問題のエラーにどのように変換されるかによって有効になります。
要約(オリジナル)
Recent progress in Neural Causal Models (NCMs) showcased how identification and partial identification of causal effects can be automatically carried out via training of neural generative models that respect the constraints encoded in a given causal graph [Xia et al. 2022, Balazadeh et al. 2022]. However, formal consistency of these methods has only been proven for the case of discrete variables or only for linear causal models. In this work, we prove the consistency of partial identification via NCMs in a general setting with both continuous and categorical variables. Further, our results highlight the impact of the design of the underlying neural network architecture in terms of depth and connectivity as well as the importance of applying Lipschitz regularization in the training phase. In particular, we provide a counterexample showing that without Lipschitz regularization this method may not be asymptotically consistent. Our results are enabled by new results on the approximability of Structural Causal Models (SCMs) via neural generative models, together with an analysis of the sample complexity of the resulting architectures and how that translates into an error in the constrained optimization problem that defines the partial identification bounds.
arxiv情報
著者 | Jiyuan Tan,Jose Blanchet,Vasilis Syrgkanis |
発行日 | 2025-06-16 15:15:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google