A Neural Framework for Generalized Causal Sensitivity Analysis

要約

観察されない交絡は多くのアプリケーションで一般的であり、観察データからの因果関係の推論が困難になります。
救済策として、因果感度分析は、数学的保証との観察されていない交絡の下で因果関係の結論を引き出す重要なツールです。
この論文では、一般化された因果感度分析のためのニューラル フレームワークである NeuralCSA を提案します。
以前の研究とは異なり、私たちのフレームワークは、(i) 限界感度モデル、f 感度モデル、およびローゼンバウムの感度モデルを含む、大規模なクラスの感度モデルと互換性があります。
(ii) 異なる治療タイプ (つまり、二回治療と連続治療)。
(iii) (条件付き) 平均治療効果と複数の結果に対する同時効果を含む、さまざまな因果関係のクエリ。
\frameworkname の一般性は、2 つの条件付き正規化フローを使用して、治療介入に対応する潜在的な分布シフトを学習することによって実現されます。
私たちは、NeuralCSA が対象の因果クエリの有効な境界を推論できることを理論的に保証し、シミュレートされたデータと現実世界のデータの両方を使用してこれを経験的に実証します。

要約(オリジナル)

Unobserved confounding is common in many applications, making causal inference from observational data challenging. As a remedy, causal sensitivity analysis is an important tool to draw causal conclusions under unobserved confounding with mathematical guarantees. In this paper, we propose NeuralCSA, a neural framework for generalized causal sensitivity analysis. Unlike previous work, our framework is compatible with (i) a large class of sensitivity models, including the marginal sensitivity model, f-sensitivity models, and Rosenbaum’s sensitivity model; (ii) different treatment types (i.e., binary and continuous); and (iii) different causal queries, including (conditional) average treatment effects and simultaneous effects on multiple outcomes. The generality of \frameworkname is achieved by learning a latent distribution shift that corresponds to a treatment intervention using two conditional normalizing flows. We provide theoretical guarantees that NeuralCSA is able to infer valid bounds on the causal query of interest and also demonstrate this empirically using both simulated and real-world data.

arxiv情報

著者 Dennis Frauen,Fergus Imrie,Alicia Curth,Valentyn Melnychuk,Stefan Feuerriegel,Mihaela van der Schaar
発行日 2023-11-27 17:40:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク