要約
線形因果離散化とは、因果表現学習における最近の手法であり、観測された変数の集合を、それらの間に因果従属性を持つ潜在変数によって記述するものである。独立成分分析と線形構造方程式モデルの一般化とみなすことができる。我々は、それぞれが潜在変数に対する介入によって与えられる複数のコンテキストの下でのデータへのアクセスを仮定して、線形因果離散化の識別可能性を研究する。各潜在変数に対する1回の完全介入が、完全介入の下でパラメータを回復するのに十分であり、最悪の場合には必要であることを示し、観測変数よりも多くの潜在変数を許容するために、これまでの研究を一般化する。連成テンソル分解によりパラメータを計算する構成的証明を与える。ソフト介入については、多項式方程式系の研究により、観測データと矛盾しない潜在グラフとパラメータの等価クラスを求める。我々の結果は、ゼロでない高次のキュムラントが存在することを仮定して成り立つが、これは変数の非ガウス性を意味する。
要約(オリジナル)
Linear causal disentanglement is a recent method in causal representation learning to describe a collection of observed variables via latent variables with causal dependencies between them. It can be viewed as a generalization of both independent component analysis and linear structural equation models. We study the identifiability of linear causal disentanglement, assuming access to data under multiple contexts, each given by an intervention on a latent variable. We show that one perfect intervention on each latent variable is sufficient and in the worst case necessary to recover parameters under perfect interventions, generalizing previous work to allow more latent than observed variables. We give a constructive proof that computes parameters via a coupled tensor decomposition. For soft interventions, we find the equivalence class of latent graphs and parameters that are consistent with observed data, via the study of a system of polynomial equations. Our results hold assuming the existence of non-zero higher-order cumulants, which implies non-Gaussianity of variables.
arxiv情報
著者 | Paula Leyes Carreno,Chiara Meroni,Anna Seigal |
発行日 | 2024-07-05 15:53:16+00:00 |
arxivサイト | arxiv_id(pdf) |