Causal Reasoning in the Presence of Latent Confounders via Neural ADMG Learning

要約

潜在的な交絡は、観測データから因果関係を推論するための長年の障害でした。
一般的なアプローチの 1 つは、非巡回有向混合グラフ (ADMG) を使用してデータをモデル化することです。ADMG は、有向エッジと双方向エッジを使用して変数間の祖先の関係を記述します。
ただし、ADMG を使用する既存の方法は、線形関数の仮定または離散検索のいずれかに基づいており、使用が複雑であり、大規模なデータセットの計算の扱いやすさに欠けています。
この作業では、既存の一連の作業をさらに拡張し、観測データから非線形関数関係を持つ ADMG を学習するための新しい勾配ベースのアプローチを開発します。
最初に、潜在的な交絡の存在が、非線形加法性ノイズ モデルを使用した弓のない ADMG の仮定の下で識別可能であることを示します。
この洞察により、ADMG 学習の自己回帰フローに基づく新しい神経因果モデルを提案します。
これにより、潜在的な交絡の存在下でデータの背後にある複雑な因果構造関係を特定できるだけでなく、それらの機能的関係 (したがって治療効果) を同時に推定することもできます。
さらに、合成データセットと実際のデータセットの両方での実験を通じてアプローチを検証し、関連するベースラインに対する競争力のあるパフォーマンスを実証します。

要約(オリジナル)

Latent confounding has been a long-standing obstacle for causal reasoning from observational data. One popular approach is to model the data using acyclic directed mixed graphs (ADMGs), which describe ancestral relations between variables using directed and bidirected edges. However, existing methods using ADMGs are based on either linear functional assumptions or a discrete search that is complicated to use and lacks computational tractability for large datasets. In this work, we further extend the existing body of work and develop a novel gradient-based approach to learning an ADMG with non-linear functional relations from observational data. We first show that the presence of latent confounding is identifiable under the assumptions of bow-free ADMGs with non-linear additive noise models. With this insight, we propose a novel neural causal model based on autoregressive flows for ADMG learning. This not only enables us to determine complex causal structural relationships behind the data in the presence of latent confounding, but also estimate their functional relationships (hence treatment effects) simultaneously. We further validate our approach via experiments on both synthetic and real-world datasets, and demonstrate the competitive performance against relevant baselines.

arxiv情報

著者 Matthew Ashman,Chao Ma,Agrin Hilmkil,Joel Jennings,Cheng Zhang
発行日 2023-03-22 16:45:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ME パーマリンク