要約
因果関係の解きほぐしは、因果モデルを通じて相互に関連する潜在変数を使用してデータの表現を明らかにすることを目的としています。
データを説明する潜在モデルが一意であれば、そのような表現は識別可能です。
この論文では、対応のない観察データと介入データが利用可能であり、介入ごとに潜在変数のメカニズムが変化するシナリオに焦点を当てます。
因果変数が完全に観察されると、統計的に一貫したアルゴリズムが開発され、忠実性の仮定の下で因果モデルを特定します。
ここで、忠実性の一般化された概念を前提として、観察されていない因果変数でも識別可能性が達成できることを示します。
私たちの結果は、無限のデータの制限内で、等価クラスまでの潜在因果モデルを復元し、目に見えない介入の組み合わせの効果を予測できることを保証します。
私たちは、自動エンコーディング変分ベイズ アルゴリズムを開発することによって因果関係を解くフレームワークを実装し、それをゲノミクスにおける組み合わせ摂動効果を予測する問題に適用します。
要約(オリジナル)
Causal disentanglement aims to uncover a representation of data using latent variables that are interrelated through a causal model. Such a representation is identifiable if the latent model that explains the data is unique. In this paper, we focus on the scenario where unpaired observational and interventional data are available, with each intervention changing the mechanism of a latent variable. When the causal variables are fully observed, statistically consistent algorithms have been developed to identify the causal model under faithfulness assumptions. We here show that identifiability can still be achieved with unobserved causal variables, given a generalized notion of faithfulness. Our results guarantee that we can recover the latent causal model up to an equivalence class and predict the effect of unseen combinations of interventions, in the limit of infinite data. We implement our causal disentanglement framework by developing an autoencoding variational Bayes algorithm and apply it to the problem of predicting combinatorial perturbation effects in genomics.
arxiv情報
著者 | Jiaqi Zhang,Chandler Squires,Kristjan Greenewald,Akash Srivastava,Karthikeyan Shanmugam,Caroline Uhler |
発行日 | 2023-07-12 15:39:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google