要約
介入の下で個人の反事実上の結果を推定することは、結果が高次元(遺伝子式、顔の画像など)であり、共変量が比較的限られている場合、従来の因果推論と監督された学習アプローチの困難な作業です。
この場合、反事実的治療下での結果を予測するには、共変量に加えて観察された結果に含まれる個々の情報を活用することが重要です。
反事実的な生成モデリングで変分推論を使用した以前の研究は、条件付き変動自動エンコーダー定式化内の神経適応とモデルのバリアントに焦点を当てています。
この作業では、新しい変動ベイジアン因果推論フレームワークとその理論的バッキングを提示して、反事実的な生成モデリングタスクを適切に処理します。これにより、反事実的なサンプルなしでトレーニング中に反事実的な監督を行うことができ、逆の効果の正確な識別を助ける不拡張外の騒音誘ductionを促進します。
実験では、複数のベンチマークでの反事実的生成モデリングの最先端モデルと比較して、フレームワークの利点を実証します。
要約(オリジナル)
Estimating an individual’s counterfactual outcomes under interventions is a challenging task for traditional causal inference and supervised learning approaches when the outcome is high-dimensional (e.g. gene expressions, facial images) and covariates are relatively limited. In this case, to predict one’s outcomes under counterfactual treatments, it is crucial to leverage individual information contained in the observed outcome in addition to the covariates. Prior works using variational inference in counterfactual generative modeling have been focusing on neural adaptations and model variants within the conditional variational autoencoder formulation, which we argue is fundamentally ill-suited to the notion of counterfactual in causal inference. In this work, we present a novel variational Bayesian causal inference framework and its theoretical backings to properly handle counterfactual generative modeling tasks, through which we are able to conduct counterfactual supervision end-to-end during training without any counterfactual samples, and encourage disentangled exogenous noise abduction that aids the correct identification of causal effect in counterfactual generations. In experiments, we demonstrate the advantage of our framework compared to state-of-the-art models in counterfactual generative modeling on multiple benchmarks.
arxiv情報
著者 | Yulun Wu,Louie McConnell,Claudia Iriondo |
発行日 | 2025-03-18 17:48:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google